fredag 15 september 2023

Ursula von der Leyen quotes us on AI risk

"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."

That is the succinct statement on AI risk that was released on May 30 this year and signed by Geoffrey Hinton, Yoshua Bengio, Demis Hassabis, Sam Altman, Dario Amodei, Bill Gates, Ilya Sutskever, Audrey Tang, Stuart Russell, Mustafa Suleyman, Daniel Dennett, Peter Singer, Martin Rees, Jaan Tallinn, Max Tegmark, Hilary Greaves, Paul Christiano, Ajeya Cotra, Eliezer Yudkowsky, Dan Hendrycks, myself and a few hundred other leading thinkers in the AI sphere.

Our statement was quoted in full - and in a way that, although it does not explicitly signify endorsement, indicates the need to take it seriously - by the president of the European Commission, Ursula von der Leyen, in her State of the Union Address on September 13.

The world is finally waking up to the extreme danger we are facing from AI.

2 kommentarer:

  1. Du kunde kanske säga någonting om varför existerande lagstiftning inte räcker till gentemot AI-hotet? Det är väl alldeles rimligt att existerande lagar och moral gäller även för AIsar, som givetvis inte får mörda och förstöra som de vill, utan likt alla andra hotas av nerstängning eller instängning om de beter sig illa. Det borde väl vare sig förvåna dem eller deras ägare. Så varför antar man att AIsar kommer skita i våra regler?

    Det fanns nyligen en artikel på Less Wrong i ämnet AI-säkerhet via lagar, som uppseendeväckande nog bara fått en enda mycket kort kommentar: https://www.lesswrong.com/posts/oi2YxRddakosnnbGX/a-case-for-ai-safety-via-law

    SvaraRadera
    Svar
    1. Även om det vore sant (vilket det inte är) som du antyder att relevanta länder har lagstiftningar som funktionsdugligt fördelar ansvar när AI-teknik orsakar skada, så finns ändå en lång rad svar på din fråga. Här är fyra av dem:

      1. Oavsett vilka lagar de ledande AI-utvecklarna har att förhålla sig till finns risken att de till följd av en kombination av preverterade marknadsincitament och den vanliga mänskliga böjelsen för önsketänkande agerar oaktasamt med allas vår framtid.

      2. Med dagens kunskapsläge så finns inget sätt att skilja (a) träning av AI för att följa lagen från (b) träning av AI för att bryta mot lagen endast i fall då den undgår upptäckt.

      3. Så snart en avancerad AI lyckats själv-exfiltrera är det i praktiken så gott som omöjligt att dra ur sladden.

      4. Det finns inga fungerande förslag till mekanism för straffutmätning i ett läge där samtliga människor dödats.

      Radera