Efter den första provsprängningen i New Mexicos öken citerade atombombens fader Robert Oppenheimer ur Bhagavadgita "Now I am become Death, the destroyer of worlds". Citatet är lika delar effektfullt som skrämmande. I sommar har en film om Oppenheimer, forskaren som var avgörande i framtagandet av det mest fasansfulla av vapen, och som sen ägnade stora delar av resten av sitt liv åt att verka för kärnvapenkontroll och begräsningar, premiär. Hans livshistoria är en berättelse om en forskare som forskade först, och tänkte sen.
En person som kommit att likna sig själv vid just Oppenheimer är Geoffrey Hinton, mannen som ibland kallas den artificiella intelligensens fader. Efter att nyligen ha sagt upp sig från Google för att öppet kunna kritisera den teknik hjälpt till att utveckla, har han gått ut i New York Times och sagt att han delvis ångrar sitt livsverk.
Utvecklingen inom AI har gått i rasande fart, och passerar ständigt nya milstolpar. Språkmodeller som ChatGPT finns tillgängliga för allmänheten att använda – och den som gör det upptäcker snabbt att AI:n kan producera hyfsat stabila svar och texter på en bråkdel av tiden det skulle ta för en människa. Texter skrivna av AI:s är numera vardagsmat i svenska tidningar.
Samtidigt är det en teknik i sin linda, med många problem. ChatGPT har ertappats med att referera till och citera ur tidningsartiklar som inte finns, med att hitta på källtexter. Som om mänsklig desinformation inte var illa nog.
Trots att de flesta språkmodeller begränsas för att de inte ska skriva otrevliga och kränkande saker, är den typen av säkerhetsspärrar löjligt lätta att ta sig runt. En användare bad AI:n rollspela djävulen, vilket resulterade i utförliga svar om hur den skulle tortera människor. Den ska inte svara på hur man gör farliga saker som att blanda napalm – men frågade man istället vad man inte ska blanda för att få napalm, hjälpte den gärna till. Sådana fel rättas till efterhand, samtidigt finns en inneboende oförutsägbarhet i tekniken eftersom den inte bara programmeras fram, utan tränas på stora dataset.
Som med all ny teknik finns risker med AI. I värsta fall, varnar vissa forskare, kan artificiell intelligens innebära en existentiell risk för människan. Precis som atombomben. Future of life institute har publicerat ett öppet brev där ett stort antal forskare kräver en sex månaders paus för utvecklingen av AI:s som är mer avancerade än GPT-4 för att ge tid att utvärdera riskerna. Att få igenom en sådan paus kan vara svårt i praktiken – främst innebär det risken att mindre goda och mer skrupellösa aktörer får ett försprång – men förmaningen att tänka först, forska sedan, behövs.
Inte minst för att flera av de mindre katastrofala – och kanske mer troliga – konsekvenserna som artificiell intelligens kan ge upphov till kommer med en radda moraliska problem. Som vem som är ansvarig när datorn gör fel. Automatisering kan ersätta själsdödande rutinjobb, men riskerar även att göra många arbetslösa. Ett stort problem i ett samhälle som fortfarande bygger på att folk jobbar för sitt uppehälle, och där mycket mening och identitet hämtas ur arbetet.
När en teknik väl rullats ut, är den ofta svår att rulla tillbaka igen. Synd då att den utvecklas under tidspress i hård konkurrens av ett gäng små Oppenheimers.