AI-utvecklingen måste stävjas snarast möjligt

19 jan 2026
AI. Olle Häggström, professor i matematisk statistik, kommenterar i en essä Nette Wermeld Enströms inlägg om AI-utvecklingen. Häggström anser att kapplöpningen mot superintelligens måste stävjas genom kraftfulla ingripanden. AI, AI-teknik, artificiell intelligens, samhällsutvecklingen, Nette Wermeld Enström, existentialismen,
Illustration: Geralt / Pixabay.com.

ESSÄ. Olle Häggström, professor i matematisk statistik, kommenterar i en essä Nette Wermeld Enströms inlägg om AI-utvecklingen. Häggström anser att kapplöpningen mot superintelligens måste stävjas genom kraftfulla ingripanden.

 

De globala problemen – tilltagande geopolitiska spänningar, högerpopulismens framväxt, klimatförändringarna, och så vidare – har i nådens år 2026 börjat hopa sig på ett oroväckande vis. För den som följer med i AI-frågor framstår dock AI-utvecklingen som den allra största riskfaktorn under återstoden av 2020-talet, och även under påföljande decennium (om vi alls kommer så långt innan vi utplånar oss själva).

Redan 1951 spekulerade den moderna datavetenskapens grundare Alan Turing i en framåtblickande text kring hur den teknologi han själv varit med om att sätta i gång skulle kunna leda till skapandet av kognitivt övermänskliga maskiner – det vi i dag kallar superintelligent AI – och han landar i den bedömningen att vi ”bör vänta oss att maskinerna i något skede tar kontrollen”. Själva begreppet artificiell intelligens myntades inte förrän 1955, året efter Turings tragiskt tidiga bortgång, men man hade kunnat vänta sig att Turings ödesmättade varningsord skulle sätta avtryck i AI-forskningen under de år som följde. Så blev emellertid inte fallet, utan forskningen ignorerade (till skillnad från Hollywood) dessa tankar nästan helt i mer än ett halvsekel, i en anda av bekymmerslöst framåtskridande.

Delvis kan denna brist på risktänkande förklaras med att det stora AI-genombrott Turing hade i åtanke under större delen av den tid som förflutit sedan dess framstått som så avlägset att det känts mer som en teoretisk abstraktion än som en möjlig realitet. Den situationen har emellertid förändrats drastiskt under den senaste 10-årsperioden, till följd av AI-utvecklingens plötsliga acceleration i och med framgångarna för så kallad deep learning-teknik, exemplifierad inte minst av dagens stora språkmodeller som OpenAI:s ChatGPT och Anthropics Claude.

Dessa båda amerikanska AI-bolag tillsammans med Google DeepMind och några få andra befinner sig i en rasande kapplöpning som gör att kurvorna med ens pekar spikrakt uppåt. Detta i sin tur får initierade AI-experter som exempelvis Leopold Aschenbrenner och Daniel Kokotajlo (som båda är före detta OpenAI-medarbetare) att göra bedömningen att vi kanske bara är några enstaka år från den tidpunkt då de ledande AI-utvecklarna inte längre är människor av kött och blod utan själva är AI. I det skedet kan AI-bolagen sätta in en armé av hundratusentals eller miljoner digitala AI-utvecklare, varpå ett slags turbofeedback uppstår och utvecklingen eventuellt kan bli så explosiv att det bara handlar om månader innan superintelligensen är ett faktum.

Om detta scenario besannas kommer Homo sapiens i praktiken att ha abdikerat från sin position som planetens härskare, och allt hänger då på vad de nya superintelligenta maskinerna är motiverade att ta sig för. Vad som gör detta extra bekymmersamt är att någon övertygande plan för att lösa det så kallade AI alignment-problemet i dag inte finns. AI alignment handlar om att se till att de första riktigt kraftfulla AI-systemen har mål och drivkrafter som är i linje med vad vi önskar och i tillräcklig mån prioriterar sådant som mänsklig välfärd och ett blomstrande mänskligt samhälle.

Om vi lyckas lösa AI alignment i tid till uppkomsten av superintelligens finns potentialen att skapa en värld av överflöd utan mänskligt arbete. Huruvida en sådan kan organiseras på ett bra sätt är alltjämt en öppen fråga, men för att vi åtminstone skall ha chansen att göra det krävs att kraftfulla fördelningspolitiska åtgärder sätts in i god tid.

Om vi däremot misslyckas med att lösa AI alignment i tid uppstår en konflikt mellan våra värderingar och de superintelligenta maskinernas. Defaultutfallet i ett sådant läge beskrevs 2008 av AI alignment-pionjären Eliezer Yudkowsky med de illavarslande orden ”AI hatar dig inte, ej heller älskar den dig, men du består av atomer som den kan ha annan användning för”.

En sådan konflikt mot en överlägsen motståndare skulle vi knappast överleva, och risken att vi till följd av den pågående AI-kapplöpningen inom kort hamnar där genom att skapa superintelligent AI utan att först ha löst AI-alignmentproblemet kan inte längre ignoreras. Allt fler ledande AI-forskare har börjat varna för denna risk, inklusive fysikpristagaren Geoffrey Hinton som i sitt tal på Nobelfesten 2024 chockade de församlade gästerna genom att framhålla att just den AI-teknik som Nobelkommittén låtit belöna honom för kan leda till detta slags katastrof.

I en krönika i Opulens den 7/1 skriver Nette Wermeld Enström om visselblåsare inom AI-eliten, och fokuserar på Yoshua Bengio, som är en av högst en handfull personer som på allvar kan tävla med Hinton om positionen som världens främste AI-forskare.

Bengio har sedan 2023 engagerat sig alltmer för stävjandet av katastrofal AI-risk, och säger ångerfullt att han ”borde ha sett detta komma tidigare”. Härtill kan läggas en rad andra namn, inklusive Yudkowsky som nyligen tillsammans med sin kollega Nate Soares utkom med den välargumenterade och läsvärda boken If Anyone Builds It, Everyone Dies; ordet ”It” i boktiteln syftar på superintelligent AI.

Men trots att ledande experter ropar för full hals om hur ödesdiger AI-utvecklingen kan bli har intresset för detta slags AI-risk hittills förblivit svalt hos mainstreammedier, allmänhet och politiker. För att råda bot på det är det viktigt att försöka förstå varför det har blivit så. Wermeld Enström snuddar vid denna fråga i en uppföljande krönika den 14/1, där hon tar som utgångspunkt Jean-Paul Sartres existentialistiska filosofi om mänsklig agens och hur vi har att själva skapa mening i våra liv.

Vi är fria varelser, och med det kommer ett ansvar så tungt att många finner det outhärdligt och därför hamnar i resignation och i olika slags självbedrägeri för att förneka den egna agensen. I AI-frågan tycker Wermeld Enström sig se detta fenomen manifestera sig i teknikdeterministiska föreställningar om att utvecklingen är oundviklig.

Jag är övertygad om att hon har rätt i att denna psykologi förekommer, och har själv ofta bevittnat samma slags flyktimpuls i AI-debatten, som nu senast i ett poddsamtal med Göteborgs-Postens politiske redaktör Adam Cwejman.

Det blev ett bra samtal där Cwejman uppvisade en bland journalister ovanlig nivå av förtrogenhet med AI-risklandskapet, men lite drygt halvvägs in i samtalet gör han en lång uppräkning av politiska och kommersiella mekanismer som kan utgöra hinder om vi vill styra utvecklingen bort från den vettlösa kapplöpning mot superintelligens vi nu befinner oss i. Han sammanfattar det hela (ca 40:28 in i ljudfilen) med att ”tärningen är kastad, nu får vi vänta på resultatet”.

Jag hade givetvis inga invändningar mot påståendet att dessa hinder finns, men menade att det är förhastat och oacceptabelt att utan att ens ha försökt göra något åt dem upphöja dem till oöverstigliga. Eftersom den civilisationshotande superintelligenta AI:n ännu inte finns är det alltjämt möjligt att välja att inte skapa den.

Om jag hade haft möjlighet att före samtalet med Cwejman läsa Wermeld Enströms text hade jag kanske anfört hennes manande ord om att ”även passivitet är ett val”, och att samma sak gäller ”varje utebliven reglering” och ”varje beslut att prioritera snabb utveckling framför säkerhet”. Vi kan välja bättre än så.

Men AI-diskussionen är mångfasetterad, och olika personer kommer in i den med olika utgångspunkter och olika föreställningar om tekniken. Dessa olikheter ger upphov till en rad olika mekanismer som kan förklara beteendet hos dem som drar benen efter sig i stället för att kliva upp på barrikaderna och hävda att det är oacceptabelt att alla vi åtta miljarder världsmedborgare skall riskera att utplånas till följd av att något tusental AI-utvecklare i norra Kalifornien inte förmår lägga band på sig i jakten på superintelligens.

Det slags resignation som Wermeld Enström skriver om förklarar förvisso passiviteten hos en del, men i vissa fall krävs andra förklaringar, varav den enligt min mening allra oftast tillämpliga är att man helt enkelt förnekar att risken för AI-katastrof är en realitet.

Denna förnekelse kan i sig ta olika former, varav de två vanligaste är förnekandet av att övermänskligt kapabel AI alls är möjlig, och av att en sådan AI någonsin skulle vilja göra oss människor illa.

På annat håll, som i min bok Tänkande maskiner och min essä Our AI future and the need to stop the bear, har jag skrivit utförligt om båda tankegångarna och varför de enligt min mening är förfelade, men här vill jag som avslutning bara kort beröra vad det handlar om.

Vad gäller idén att någon superintelligent AI inte är möjlig eller i alla fall inte är att vänta inom överskådlig tid i förlängningen av dagens teknikutveckling, så bygger denna oftast på ogrundade föreställningar om att den mänskliga intelligensen inbegriper något så speciellt och mystiskt att det är omöjligt att matcha på maskinell väg.

Angående språkmodeller som ChatGPT och Claude hävdas ofta att de bygger på så i grunden enkel teknik – man kan exempelvis peka på att de blott är tränade att statistiskt förutsäga nästa ord i internettext, eller att dynamiken i de neurala nätverk de är uppbyggda av drivs av den själlösa matematiska operationen matrismultiplikation – att de självklart inte kan vara intelligenta på riktigt.

Dessa resonemang bygger outtalat på en princip om att intressanta komplexa egenskaper som intelligens omöjligt kan emergera ur system av enkla komponenter, men eftersom principen är felaktig faller hela resonemanget. För att se att principen inte håller räcker det att se till den mänskliga hjärnan som ger upphov till vår intelligens trots att den blott är ett geleaktigt stycke materia bestående av atomer och elementarpartiklar som mekaniskt och tanklöst far omkring och krockar med varandra.

Den andra tankegången handlar om att vi inte har något att oroa oss över eftersom en tillräckligt intelligent AI med automatik också kommer att vara moralisk på ett sätt som gynnar oss människor. Men intelligens i detta sammanhang är inget annat än förmågan att flexibelt och effektivt prediktera och planera för att optimalt uppnå givna mål, oavsett vilka dessa mål råkar vara. Och som jag konstaterade i en bloggpost i höstas, att tillräckligt avancerad AI kommer att ha djupa kunskaper om mänskliga normer och värderingar (något som i vissa avseenden redan är fallet) är en helt annan sak än att den skulle instämma i och agera på basis av dessa värderingar.

Den teoribildning som finns på AI-säkerhetsområdet tyder starkt på att intelligens och målsättning är separata egenskaper på så vis att snart sagt vilken målsättning som helst är förenlig med godtycklig hög intelligens.

Det stämmer till eftertanke hur planetens i dag mest kapabla och intelligenta art – människan – med sina ekosystemsskövlingar och sin barbariska djurindustri tar sig rätten att behandla andra arter. Om vi skapar superintelligent AI innan vi hittat ett sätt att säkerställa att dess målsättningar är de vi önskar – det problemkomplex jag omtalar som AI alignment ovan – kan vi inte räkna med att den behandlar oss mer kärleksfullt och moraliskt än vi i dag behandlar djurindustrins grisar och kycklingar.

Kunskapen om hur ett sådant säkerställande kan åstadkommas finns inte i dag, vare sig hos de ledande AI-bolagen eller någon annanstans, och det är därför vi snarast behöver kraftfulla ingripanden från lagstiftare och andra samhällsaktörer för att stävja deras vansinneskapplöpning mot superintelligens.

 

Olle Häggström.
OLLE HÄGGSTRÖM
info@opulens.se

Opulens är ett dagligt nätmagasin som vill stärka kulturjournalistikens opinionsbildande roll. Kulturartiklar samsas därför med opinionsmaterial – allt med en samhällsmedveten blick där så väl klimatförändringarna och hoten mot yttrandefriheten som de sociala orättvisorna betraktas som självklara utgångspunkter.

Telegrafstationen

Telegrafstationen

Veckans Opulens

Veckans Opulens kommer gratis via mail på lördagar. Du kan när som helst avsluta nyhetsbrevet. Anmäl dig här:

Genom att teckna nyhetsbrevet godkänner du Opulens integritetspolicy.

Opulens systermagasin

Magasinet Konkret

Gå tillToppen

Se även

AI. ”Den stora frågan är kanske inte om AI kommer att förändra världen utan om vi är beredda att erkänna att det är vi, genom våra val, som avgör hur framtiden kommer att se ut.” Det skriver Nette Wermeld Enström.

AI – Är vi beredda att ta ansvar för utvecklingen?

AI. ”Den stora frågan är kanske inte om AI kommer
AI-utvecklare. Nette Wermeld Enström skriver om hur AI-utvecklare nu stiger fram som offentliga visselblåsare och varnar för det okontrollerade framåtskridandet.

AI-utvecklare räds sina egna verk

AI. Nette Wermeld Enström skriver om hur AI-utvecklare nu stiger