fredag 24 mars 2023

Jag skriver om GPT-4 och GPT-5 i Ny Teknik idag

I Ny Teknik skriver jag idag om AI-risk i samband med OpenAI:s nya GPT-4 och dess eventuella efterföljare GPT-5. Min debattartikel fick rubriken Vi kan inte ta för givet att vi överlever en otillräckligt säkrad GPT-5 och inleds på följande vis:
    Vilka egenskaper ligger bakom den dominans på vår planet som människan byggt upp från nästan noll de senaste 100 000 åren? Det handlar inte om muskelstyrka eller fysiska uthållighet, utan nästan enbart om vår intelligens, vars enorma kraft också pekar på vilket avgörande skede vi befinner oss i nu, då vi är på väg att automatisera den och överföra den till maskiner.

    Googles VD Sundar Pichai överdrev knappast när han i ett tal 2018 utnämnde AI (artificiell intelligens), till ”troligen det viktigaste mänskligheten någonsin arbetat med – viktigare än både elektriciteten och elden”. AI kan bli nyckeln till att lösa alla de stora miljö-, naturresurs- och samhällsproblem som vi brottas med i dag, och till att lägga grunden för en hållbar och blomstrande framtid.

    Men det finns också stora risker. En del av dessa är relativt jordnära – som den att AI-verktyg medverkar till diskriminering eller blir ett redskap för spridning av individanpassad desinformation och spam. Dessa är viktiga att hantera, men den i slutändan allra främsta AI-risken handlar om ett eventuellt framtida AI-genombrott som skapar det som ibland kallas AGI (artificiell generell intelligens). Redan datavetenskapens grundare Alan Turing skrev i en framåtblickande text 1951 om en punkt där maskinerna till slut överträffar mänsklig tankeförmåga, och hur vi då inte längre kan räkna med att behålla kontrollen över dem.

    I ett sådant läge hänger mänsklighetens fortsatta öde på vilka mål och drivkrafter de superintelligenta maskinerna har. Det skulle dröja mer än ett halvsekel efter Turings varningsord innan det forskningsområde som i dag benämns ”AI alignment” sakta började komma igång. AI alignment går ut på att se till att de första AGI-maskinerna får värderingar som är i linje med våra egna, och som prioriterar mänsklig välfärd. Om vi lyckas med det blir AGI-genombrottet det bästa som någonsin hänt oss, men om inte så blir det sannolikt vår undergång.

    Den som har överdoserat på Terminator och liknande filmer kan lätt tro att avancerad robotik är nödvändigt för en AI-katastrof. En av de insikter som ai alignment-pionjären Eliezer Yudkowsky gjorde på 00-talet var dock att ett ai-övertagande inte förutsätter robotik, och att en kanske troligare väg till maktövertagandet åtminstone initialt går via...

Med denna cliffhanger uppmanar jag er att läsa resten av artikeln hos Ny Teknik.

5 kommentarer:

  1. Fjantigt! Det är väl bara att köpa en varmkorv... 😊

    SvaraRadera
  2. Man kan sannolikt behöva tillskapa en Guardian AI som har till uppgift att säkerställa att alla AIs tjänar en värdepluralistisk agenda om överlevnad, kunskap, kompetens, skönhet, kärlek och rika upplevelser och åtskilligt annat. Alldeles uppenbart går det inte att säga åt en sådan AI att den skall förverkliga den skruttiga ideologin som kallas liberalism, eftersom ingen vet eller någonsin kommer veta vad sann liberalism är. En intelligent ekologisk värdepluralism är en korrekt värdeteori, medan alla andra värdeteorier bara är bajs.

    Jag har en text på ca 26 300 tecken om detta, men postar den än så länge ganska tvekande, eftersom folk fortfarande verkar vara för dumma för att ta till sig värdepluralism.

    SvaraRadera
    Svar
    1. Om du har utarbetat en teori som kan rädda världen tycker jag att du skall publicera den, och göra reklam för den på ett mer inbjudande sätt utan ord som."bajs" och utan att tala om för folk att de är "för dumma för att ta till sig" dina idéer.

      Radera
    2. När folk inte rappt responderar positivt på mina texter så förbättrar jag dem vanligen ytterligare, snarare än att börja marknadsföra dem hårt som de är. Jag har för någon månad sedan mailat dig väsentliga delar av min sedan dess vidareutvecklade IEP-text, men fick ingen respons. Jag har också nyligen postat min mycket kortare text om Värdepluralism och AI här på din blogg, men fick ingen respons. Jag har också postat den texten på Less Wrong https://www.lesswrong.com/posts/Kaz9miAuxSAAuGr9z/value-pluralism-and-ai mm och fått en del positiva responser, men ännu inte så mycket att det känns som att folk är helt och hållet mottagliga. Det finns massor med ytterligare möjligheter att sprida texterna, men jag tar det lite pö om pö. Om du vill se min längre text så kan jag maila delar av den en gång till. Jag spar dock den tyngre argumenteringen tills jag upplever att folk faktiskt är genuint intresserade.

      Radera
    3. Du gör nog hur som helst klokast i att inte hoppas på mig i detta sammanhang.

      Radera