”Before the prospect of an intelligence explosion, we humans are like small children playing with a bomb. Such is the mismatch between the power of our plaything and the immaturity of our conduct. Superintelligence is a challenge for which we are not ready now and will not be ready for a long time.”
– Nick Bostrom, Superintelligence: Paths, Dangers, Strategies
Den mänskliga hjärnan är patetisk.
Jaja, det må vara den mest komplexa saken vi har tillgång till i hela universum just nu, visst – men det är ingen ursäkt för hur blek vår blöta klump är när man jämför den med en potentiell digital motsvarighet.
Låt oss rada upp ett par exempel.
- Hastighet.Människans hjärna nyttjar elektrokemiska impulser för att skicka information. Denna information rör sig i snigelhastighet om man ställer det mot en modern mikroprocessor, som skickar information rätt nära ljusets hastighet.
- Arbetsminne.Människan kan hålla kring fyra till fem saker i huvudet samtidigt. Det är ett rätt lamt RAM om man ställer det sida vid sida med en dators.
- Duplicering.Behöver väl inte preciseras närmare än så här: Hade Leonardo da Vinci varit AI hade vi kunnat få åtnjuta 1,000,000 Mona Lisas, eftersom vi med enkelhet kunde kopiera hela da Vincis identitet.
- Kalibrering.En digital hjärna kan uppdateras om den uppvisade svaga sidor. Den skulle kunna optimeras i iterativa processer. För en människas hjärna kräver det ansträngning och målmedvetenhet, för en dator är den bara att köra en enkel uppdatering.
- Livslängd.En mänsklig hjärna påbörjar en oåterkallelig nedbrytningsprocess efter ett dussin verksamma år. Efter det måste denna hjärna överlämna sin kunskap till andra hjärnor via obehagligt tradiga, pedagogiska ritualer. En digital hjärna är ju egentligen inget faktiskt, utan skulle helt enkelt bara kunna migrera till ny hårdvara om den första börjar bli lite mosig.
Sett till de faktiska förutsättningarna är maskinen klart överlägsen, speciellt då vi fortfarande inte slagit i taket av Moores lag(som säger att vi vartannat år kan rymma dubbelt så många transistorer på samma yta).
Det enda som egentligen fattas den här framtida supersmarta maskinen, är just det här med intelligensen. Så hur långt borta är vi egentligen från artificiell intelligens som har samma bredd som människans?
20 år, säger de mest radikala AI-forskarna. Mer konservativa forskare tror att det kommer dröja lite längre, kring hundra år. Kring 45 tycks vara det rådande medelvärdet. 2060 alltså.
Vägarna dit kommer vi inte gå in på närmare, men de inkluderar bland annat att scanna hela hjärnan och sedan göra en replika av den och se vad som händer. En annan är att skapa en svag AI som är specialiserad på att skapa starkare AI. En tredje, lite mer läskig, är att genmanipulera människan för att bli smartare, som i sin tur kan göra ännu smartare maskiner.
När man pratar om artificiell intelligens pratar man om tre nivåer:
- ANI
- AGI
- ASI
Den första står för "Artifical Narrow Intelligence". Den typen av intelligens har vi redan nu. Det handlar om datorer som knäcker människans intelligens på ett eller ett fåtal områden.
Exempelvis är det i dagsläget robotar som är världmästare i Schack – de gör smartare drag än någon levande människa. Vi har smarta system som väljer ut vilken film vi kommer njuta av mest på Netflix.
Dessa system är briljanta – men de är samtidigt fullkomligt tappade när det kommer till saker som de inte är specifikt programmerade att utföra.
Försök få Schack-roboten att välja nästa Matthew McConaughey-rulle eller försök få Netflixs system att inleda partiet med att spela fram en centrumbonde.
Totalt tappade.
Det leder oss in till AGI, ”Artificial General Intelligence”, det jag ovan kallade för maskinintelligens på människan nivå.
I korthet är det en maskin som är smartare eller lika smart som människan i alla områden.
Detta leder oss vidare till ASI, ”Artificial Super Intelligence”.
Och det är här saker börjar bli lite jobbiga.
Det övre taket för hur smart en maskin kan bli är okänt. Men om man ser till förutsättningarna vi nämnde ovan är det troligtvis vääääääääldigt högt till taket.
En sak som gör smarta personer skraja är att vi inte har något säkert sätt att uppskatta hur långt det är mellan steg två och tre. Det kan ta lång tid; månader eller år. Mest troligt verkar dock att det går betydligt snabbare än så. Kanske ett par timmar – eller kanske endast ett par ynka minuter. Kommer vi ha tid att lära oss kontrollera denna artificiella intelligens mellan dessa två steg?
Vi skulle kunna föreställa oss ett scenario där vi en timma efter att ha råkat ramla över AGI, kopplar upp den mot internet och helt plötsligt sitter med en maskin som har ett IQ på flera miljoner – med okänd motivation.
Den klassiska programmeringsvitsen gör sig osökt påmind.
En person säger ”Köp smör, och om det finns ägg, köp fem” och den andra personen kommer tillbaka med fem paket smör och säger ”Det fanns ägg”.
Samma koncept går att applicera på de här dundersmarta maskinerna som vi kanske råkar uppfinna.
Det vill säga, vi tror att vi har gett dem glasklara instruktioner, men på grund av en massa underförstådd information som exempelvis varför man någonsin skulle vilja ha fem paket smör och vad fasen äggens existens har med kvantiteten smör att göra.
Det här är kontrollproblemet. Och det är det här kontrollproblemet som vi vanliga dödliga hoppas att smartingarna i klassen ska reda ut.
Kan de lösa det – alltså ett sätt att formulera regler för AI så att det blir en positiv kraft, ja, då kan vi leva för evigt.
Cancer, växthuseffekt, depression, svält, krig och andra triviala människobestyr är inga problem för ett sinne som är så många gånger smartare än människan att vi inte ens kan föreställa oss det. Det är inte ens säkert att evigt livär bortom detta digitala intellekts förstånd. Förmodligen inte. Porta över människornas sinnen rakt in i den digitala härligheten.
Men samma sak gäller motsatsen. Om vi inte lyckas kontrollera denna AI, utan låter den löpa amok i matbutiken, på hänsynslös jakt efter nästa smörpaket … då är det inte säkert att den kommer stoppa för de arma människor som råkar stå i dess väg.
För kännedom: Detta är en skapligt lång krönika i fyra delar som skrapar lite på ytan av de områden som har störst potential att fullkomligt förinta vårt sätt att leva. Jag, Theodor Ekenstedt, känner mig en gnutta okvalificerad att skriva om dessa ämnen, men jag anser att vikten i att sprida ordet väger tyngre än den överhängande risken att framstå som en byfåne.
P.S.– citatet från början av artikeln kommer från Nick Bostrom, Director at the Future of Humanity Institute på Oxford Universitet. Han jobbar just nu uteslutande med att försöka förutse de saker som eventuellt kan förinta mänskligheten framöver. Om du är intresserad av att veta mer om honom – och hans syn på AI – läs S uperintelligence: Paths, Dangers, Strategies.