Voor jullie is het tweede deel van een artikel uit de serie "Wacht, hoe dit allemaal echt kan zijn, waarom wordt er nog steeds niet op elke hoek over gesproken." In de vorige serie werd bekend dat een explosie van intelligentie geleidelijk naar de mensen van de planeet Aarde kruipt, het probeert zich te ontwikkelen van eng gefocuste naar universele intelligentie en, ten slotte, kunstmatige superintelligentie.
"Misschien hebben we te maken met een extreem moeilijk probleem, en het is niet bekend hoeveel tijd er wordt uitgetrokken voor de oplossing ervan, maar de toekomst van de mensheid kan afhangen van de oplossing." -Nick Bostrom.
Het eerste deel van het artikel begon onschuldig genoeg. We bespraken eng gefocuste kunstmatige intelligentie (AI, die gespecialiseerd is in het oplossen van één specifiek probleem, zoals het bepalen van routes of schaken), er is veel van in onze wereld. Vervolgens analyseerden ze waarom het zo moeilijk is om algemene directionele kunstmatige intelligentie (AGI, of AI, die qua intellectuele capaciteiten vergelijkbaar is met een mens bij het oplossen van elk probleem) te laten groeien, zo moeilijk is. We concludeerden dat de exponentiële snelheid van technologische vooruitgang erop wijst dat AGI vrij snel om de hoek kan zijn. Uiteindelijk hebben we besloten dat zodra machines de menselijke intelligentie bereiken, het volgende meteen kan gebeuren:
Zoals gewoonlijk kijken we naar het scherm, niet gelovend dat kunstmatige superintelligentie (ISI, die veel slimmer is dan welke persoon dan ook) tijdens ons leven kan verschijnen, en kiezen we emoties die het beste onze mening over deze kwestie weerspiegelen.
Voordat we ingaan op de details van ISI, laten we onszelf eraan herinneren wat het betekent voor een machine om superintelligent te zijn.
Het belangrijkste verschil ligt tussen snelle superintelligentie en kwaliteitssuperintelligentie. Vaak is het eerste dat in je opkomt als je aan een superintelligente computer denkt, dat hij veel sneller kan denken dan een persoon - miljoenen keren sneller, en in vijf minuten zal hij begrijpen wat een persoon tien jaar zou kosten. ("Ik ken kungfu!")
Het klinkt indrukwekkend, en de ISI zou echt sneller moeten denken dan wie dan ook - maar het belangrijkste onderscheidende kenmerk zal de kwaliteit van zijn intelligentie zijn, die totaal anders is. Mensen zijn veel slimmer dan apen, niet omdat ze sneller denken, maar omdat hun hersenen een aantal ingenieuze cognitieve modules bevatten die complexe taalkundige representaties, langetermijnplanning en abstract denken uitvoeren, waar apen niet toe in staat zijn. Als je het brein van een aap duizend keer versnelt, zal het niet slimmer worden dan wij - zelfs na tien jaar zal het niet in staat zijn om volgens de instructies een constructeur in elkaar te zetten, wat een persoon hooguit een paar uur zou kosten. Er zijn dingen die een aap nooit zal leren, hoeveel uur hij ook doorbrengt of hoe snel zijn hersenen werken.
Bovendien weet de aap niet hoe menselijk, omdat zijn hersenen gewoon niet in staat zijn om het bestaan van andere werelden te realiseren - de aap weet misschien wat een persoon is en wat een wolkenkrabber is, maar zal nooit begrijpen dat een wolkenkrabber is gebouwd door mensen. In haar wereld behoort alles tot de natuur, en de makaak kan niet alleen geen wolkenkrabber bouwen, maar begrijpt ook dat iedereen het kan bouwen. En dit is het resultaat van een klein verschil in de kwaliteit van intelligentie.
In het algemene schema van intelligentie waar we het over hebben, of gewoon volgens de normen van biologische wezens, is het verschil in de kwaliteit van intelligentie tussen mensen en apen klein. In het vorige artikel plaatsten we biologische cognitieve vermogens op een ladder:
Om te begrijpen hoe serieus een superintelligente machine zal zijn, plaatst u deze twee inkepingen hoger dan de persoon op die ladder. Deze machine is misschien een beetje superintelligent, maar zijn superioriteit ten opzichte van onze cognitieve vermogens zal dezelfde zijn als die van ons - ten opzichte van de apen. En net zoals een chimpansee nooit zal begrijpen dat een wolkenkrabber kan worden gebouwd, zullen wij misschien nooit begrijpen wat een machine een paar treden hoger zal begrijpen, zelfs als de machine het ons probeert uit te leggen. Maar dit is slechts een paar stappen. De slimmere machine zal mieren in ons zien - het zal ons jarenlang de eenvoudigste dingen leren vanuit zijn positie, en deze pogingen zullen volkomen hopeloos zijn.
Het type superintelligentie waar we het vandaag over zullen hebben, ligt ver buiten deze ladder. Dit is een explosie van intelligentie - hoe slimmer een auto wordt, hoe sneller hij zijn eigen intelligentie kan vergroten, waardoor het momentum geleidelijk toeneemt. Het kan jaren duren voordat een machine als deze chimpansees in intelligentie overtreft, maar misschien een paar uur om ons met een paar tandjes te overtreffen. Vanaf dat moment kan de auto al over vier stappen per seconde springen. Daarom moeten we begrijpen dat heel snel nadat het eerste nieuws dat de machine het niveau van menselijke intelligentie heeft bereikt, we de realiteit van het samenleven op aarde onder ogen kunnen zien met iets dat veel hoger zal zijn dan wij op deze ladder (of misschien, en miljoenen keren hoger):
En aangezien we hebben vastgesteld dat het volkomen nutteloos is om te proberen de kracht te begrijpen van een machine die slechts twee stappen boven ons staat, laten we voor eens en voor altijd definiëren dat er geen manier is om te begrijpen wat de ISI zal doen en wat de gevolgen van dit zal voor ons zijn. Iedereen die het tegendeel beweert, begrijpt gewoon niet wat superintelligentie betekent.
Evolutie heeft langzaam en geleidelijk het biologische brein ontwikkeld over honderden miljoenen jaren, en als mensen een superintelligente machine creëren, zullen we in zekere zin de evolutie overstijgen. Of het zal deel uitmaken van evolutie - misschien werkt evolutie op zo'n manier dat intelligentie zich geleidelijk ontwikkelt totdat het een keerpunt bereikt dat een nieuwe toekomst inluidt voor alle levende wezens:
Om redenen die we later zullen bespreken, gelooft een groot deel van de wetenschappelijke gemeenschap dat de vraag niet is of we dit omslagpunt zullen bereiken, maar wanneer.
Waar komen we hierna uit?
Ik denk dat niemand in deze wereld, ik noch jij, zal kunnen zeggen wat er zal gebeuren als we het omslagpunt bereiken. De Oxford-filosoof en toonaangevende AI-theoreticus Nick Bostrom gelooft dat we alle mogelijke uitkomsten in twee brede categorieën kunnen samenvatten.
Ten eerste, als we naar de geschiedenis kijken, weten we het volgende over het leven: soorten verschijnen, bestaan voor een bepaalde tijd en vallen dan onvermijdelijk van de evenwichtsbalk en sterven uit.
"Alle soorten sterven uit" is een even betrouwbare regel in de geschiedenis als "alle mensen sterven op een dag". 99,9% van de soorten is gevallen uit een logboek van leven, en het is vrij duidelijk dat als een soort te lang aan dit logboek blijft hangen, een natuurlijke windvlaag of een plotselinge asteroïde het logboek zal omdraaien. Bostrom noemt uitsterven de staat van een attractor - een plaats waar alle soorten in evenwicht zijn om niet te vallen waar nog geen enkele soort is teruggekeerd.
En hoewel de meeste wetenschappers toegeven dat ISI het vermogen zal hebben om mensen tot uitsterven te veroordelen, geloven velen ook dat het gebruik van de mogelijkheden van ISI individuen (en de soort als geheel) in staat zal stellen de tweede staat van de attractor te bereiken - onsterfelijkheid van de soort. Bostrom gelooft dat de onsterfelijkheid van een soort evenzeer een aantrekkingsfactor is als het uitsterven van een soort, dat wil zeggen, als we dit bereiken, zullen we gedoemd zijn tot het eeuwige bestaan. Dus zelfs als alle soorten tot nu toe van deze stok in de maalstroom van uitsterven zouden vallen, gelooft Bostrom dat de boomstam twee kanten heeft, en dat er eenvoudigweg niet op aarde zo'n intelligentie verscheen die zou begrijpen hoe naar de andere kant te vallen.
Als Bostrom en anderen gelijk hebben, en te oordelen naar alle informatie waarover we beschikken, zouden ze dat kunnen zijn, moeten we twee zeer schokkende feiten accepteren:
De opkomst van ISI zal voor het eerst in de geschiedenis de weg openen voor een soort om onsterfelijkheid te bereiken en uit de fatale cyclus van uitsterven te vallen.
De opkomst van ISI zal zo'n onvoorstelbaar grote impact hebben dat het de mensheid hoogstwaarschijnlijk in de ene of de andere richting van dit logboek zal duwen.
Het is mogelijk dat wanneer evolutie zo'n keerpunt bereikt, ze altijd een einde maakt aan de relatie van mensen met de levensstroom en een nieuwe wereld creëert, met of zonder mensen.
Dit leidt tot een interessante vraag die alleen een spelbreker niet zou stellen: wanneer zullen we dit omslagpunt bereiken en waar zal het ons brengen? Niemand ter wereld weet het antwoord op deze dubbele vraag, maar veel slimme mensen hebben tientallen jaren geprobeerd om erachter te komen. Voor de rest van het artikel zullen we uitzoeken waar ze vandaan kwamen.
* * *
Laten we beginnen met het eerste deel van deze vraag: wanneer moeten we het omslagpunt bereiken? Met andere woorden: hoeveel tijd is er nog voordat de eerste machine superintelligentie bereikt?
De meningen verschillen van geval tot geval. Velen, waaronder professor Vernor Vinge, wetenschapper Ben Herzel, mede-oprichter van Sun Microsystems Bill Joy, futurist Ray Kurzweil, waren het eens met machine learning-expert Jeremy Howard toen hij de volgende grafiek presenteerde op TED Talk:
Deze mensen delen de mening dat ISI binnenkort komt - deze exponentiële groei, die ons vandaag de dag traag lijkt, zal in de komende decennia letterlijk exploderen.
Anderen, zoals Microsoft mede-oprichter Paul Allen, onderzoekspsycholoog Gary Marcus, computerexpert Ernest Davis en tech-ondernemer Mitch Kapor, zijn van mening dat denkers als Kurzweil de omvang van het probleem ernstig onderschatten en denken dat we lang niet zo dicht bij een omslagpunt.
Het kamp van Kurzweil stelt dat de enige onderschatting die optreedt het negeren van exponentiële groei is, en de twijfelaars kunnen worden vergeleken met degenen die in 1985 naar het langzaam opbloeiende internet keken en beweerden dat het in de nabije toekomst geen impact op de wereld zou hebben.
Twijfelaars kunnen er zich van weerhouden dat het voor vooruitgang moeilijker is om elke volgende stap te zetten als het gaat om de exponentiële ontwikkeling van intelligentie, die de typische exponentiële aard van technologische vooruitgang neutraliseert. Enzovoort.
Het derde kamp, waarin Nick Bostrom zit, is het niet eens met het eerste of het tweede, met het argument dat a) dit alles absoluut in de nabije toekomst kan gebeuren; en b) er is geen garantie dat dit überhaupt zal gebeuren of dat het langer zal duren.
Anderen, zoals de filosoof Hubert Dreyfus, geloven dat alle drie de groepen naïef geloven dat er überhaupt een omslagpunt zal zijn en dat we hoogstwaarschijnlijk nooit bij ISI zullen komen.
Wat gebeurt er als we al deze meningen bij elkaar brengen?
In 2013 voerde Bostrom een enquête uit waarin hij honderden AI-experts interviewde op een reeks conferenties over het volgende onderwerp: "Wat zijn uw voorspellingen voor het bereiken van AGI op menselijk niveau?" en vroeg ons om een optimistisch jaar te noemen (waarin we AGI hebben met een kans van 10 procent), een realistische veronderstelling (een jaar waarin we AGI zullen hebben met een kans van 50 procent) en een zekere veronderstelling (het vroegste jaar waarin AGI verschijnt sinds 90 procent waarschijnlijkheid). Hier zijn de resultaten:
* Gemiddeld optimistisch jaar (10%): 2022
* Gemiddeld realistisch jaar (50%): 2040
* Gemiddeld pessimistisch jaar (90%): 2075
De gemiddelde respondenten zijn van mening dat we over 25 jaar eerder AGI zullen hebben dan niet. Een kans van 90 procent dat AGI in 2075 optreedt, betekent dat als je nu nog vrij jong bent, dit hoogstwaarschijnlijk tijdens je leven zal gebeuren.
Een afzonderlijke studie die onlangs is uitgevoerd door James Barratt (auteur van het veelgeprezen en zeer goede boek Our Latest Invention, fragmenten uit Ik presenteerde onder de aandacht van de lezers Hi-News.ru) en Ben Hertzel op de AGI-conferentie, de jaarlijkse AGI-conferentie, toonden gewoon de mening van mensen over het jaar waarin we AGI bereiken: 2030, 2050, 2100, later of nooit. Hier zijn de resultaten:
* 2030: 42% van de respondenten
* 2050: 25%
* 2100: 20%
Na 2100: 10%
Nooit: 2%
Vergelijkbaar met de resultaten van Bostrom. In de peiling van Barratt gelooft meer dan twee derde van de ondervraagden dat AGI er in 2050 zal zijn, en minder dan de helft gelooft dat AGI in de komende 15 jaar zal verschijnen. Opvallend is ook dat slechts 2% van de respondenten AGI in principe niet in onze toekomst ziet.
Maar AGI is geen kantelpunt zoals ISI. Wanneer hebben we volgens experts een ISI?
Bostrom vroeg de experts wanneer we ASI zullen bereiken: a) twee jaar na het bereiken van AGI (dat wil zeggen, bijna onmiddellijk als gevolg van een explosie van intelligentie); b) na 30 jaar. Resultaten?
De gemiddelde mening is dat de snelle overgang van AGI naar ISI met een kans van 10% zal plaatsvinden, maar over 30 jaar of minder met een kans van 75%.
Op basis van deze gegevens weten we niet op welke datum respondenten een kans van 50 procent op een ASI zouden noemen, maar laten we op basis van de twee bovenstaande antwoorden aannemen dat het 20 jaar is. Dat wil zeggen, 's werelds toonaangevende AI-experts geloven dat het keerpunt in 2060 zal komen (AGI verschijnt in 2040 + het zal 20 jaar duren voor de overgang van AGI naar ISI).
Natuurlijk zijn alle bovenstaande statistieken speculatief en geven ze simpelweg de mening weer van experts op het gebied van kunstmatige intelligentie, maar ze geven ook aan dat de meeste geïnteresseerden het erover eens zijn dat tegen 2060 AI waarschijnlijk zal arriveren. In slechts 45 jaar.
Laten we verder gaan met de tweede vraag. Wanneer we bij het omslagpunt komen, welke kant van de fatale keuze zal ons dan bepalen?
Superintelligentie zal de meest krachtige macht hebben, en de cruciale vraag voor ons zal de volgende zijn:
Wie of wat zal deze macht beheersen en wat zal hun drijfveer zijn?
Het antwoord op deze vraag zal afhangen van of de ISI een ongelooflijk krachtige ontwikkeling krijgt, een onmetelijk angstaanjagende ontwikkeling, of iets daar tussenin.
Natuurlijk probeert de expertgemeenschap ook deze vragen te beantwoorden. Bostrom's peiling analyseerde de waarschijnlijkheid van mogelijke gevolgen van AGI's impact op de mensheid, en het bleek dat met een kans van 52 procent dat alles heel goed zal gaan en met een kans van 31 procent dat alles ofwel slecht of extreem slecht zal gaan. De peiling die aan het einde van het vorige deel van dit onderwerp is bijgevoegd, gehouden onder u, beste lezers van Hi-News, liet ongeveer dezelfde resultaten zien. Voor een relatief neutrale uitkomst was de kans slechts 17%. Met andere woorden, we geloven allemaal dat AGI een groot probleem gaat worden. Het is ook vermeldenswaard dat dit onderzoek de opkomst van AGI betreft - in het geval van ISI zal het neutraliteitspercentage lager zijn.
Voordat we dieper ingaan op het nadenken over de goede en slechte kanten van de vraag, laten we beide kanten van de vraag combineren - "wanneer zal dit gebeuren?" en "is dit goed of slecht?" in een tabel die de mening van de meeste experts dekt.
We zullen het zo hebben over het hoofdkamp, maar beslis eerst over uw positie. De kans is groot dat je op dezelfde plek bent als ik was voordat ik aan dit onderwerp begon te werken. Er zijn verschillende redenen waarom mensen helemaal niet over dit onderwerp nadenken:
* Zoals vermeld in het eerste deel, hebben de films mensen en feiten ernstig verward, onrealistische scenario's gepresenteerd met kunstmatige intelligentie, wat ertoe leidde dat we AI helemaal niet serieus moesten nemen. James Barratt vergeleek deze situatie met een waarschuwing van de Centers for Disease Control (CDC) over vampiers in onze toekomst.
* Vanwege zogenaamde cognitieve vooroordelen is het erg moeilijk voor ons om te geloven dat iets echt is totdat we bewijs hebben. Je kunt je met vertrouwen voorstellen dat de computerwetenschappers van 1988 regelmatig discussiëren over de verstrekkende gevolgen van internet en wat het zou kunnen worden, maar mensen geloofden nauwelijks dat het hun leven zou veranderen totdat het daadwerkelijk gebeurde. Het is gewoon zo dat computers in 1988 niet wisten hoe ze dit moesten doen, en mensen keken gewoon naar hun computers en dachten: “Echt waar? Zal dit de wereld veranderen? Hun verbeeldingskracht werd beperkt door wat ze uit persoonlijke ervaring hadden geleerd, ze wisten wat een computer was en het was moeilijk voor te stellen waartoe een computer in de toekomst in staat zou zijn. Hetzelfde gebeurt nu met AI. We hebben gehoord dat het een serieuze zaak zal worden, maar aangezien we het nog niet van aangezicht tot aangezicht hebben ontmoet en we over het algemeen vrij zwakke manifestaties van AI in onze moderne wereld waarnemen, is het nogal moeilijk voor ons om te geloven dat het radicaal zal ons leven veranderen. Het is tegen deze vooroordelen dat tal van experts uit alle kampen, evenals geïnteresseerden, ertegen zijn om te proberen onze aandacht te trekken door het lawaai van het alledaagse collectieve egocentrisme.
* Zelfs als we in dit alles zouden geloven - hoe vaak heb je vandaag niet nagedacht over het feit dat je de rest van de eeuwigheid in het niets zult doorbrengen? Een beetje, mee eens. Zelfs als dit feit veel belangrijker is dan alles wat je dag in dag uit doet. Dit komt omdat onze hersenen meestal gefocust zijn op kleine, alledaagse dingen, ongeacht hoe waanvoorstellingen de langdurige situatie waarin we ons bevinden, is. Het is gewoon dat we gemaakt zijn.
Een van de doelen van dit artikel is om je uit het kamp te krijgen genaamd "Ik denk graag aan andere dingen" en je in het expertkamp te plaatsen, zelfs als je gewoon op het kruispunt tussen de twee stippellijnen op het plein staat hierboven, volkomen onbeslist.
In de loop van het onderzoek wordt het duidelijk dat de meningen van de meeste mensen snel afdrijven naar het "hoofdkamp", en driekwart van de experts valt in twee subkampen in het hoofdkamp.
We zullen beide kampen volledig bezoeken. Laten we beginnen met plezier.
Waarom zou de toekomst onze grootste droom kunnen zijn?
Terwijl we de AI-wereld verkennen, vinden we verrassend veel mensen in onze comfortzone. De mensen in het rechterbovenhoekje zoemen van opwinding. Ze geloven dat we aan de goede kant van het logboek zullen vallen, en ze geloven ook dat we onvermijdelijk tot dit zullen komen. Voor hen is de toekomst alleen het beste waarvan alleen kan worden gedroomd.
Het punt dat deze mensen onderscheidt van andere denkers is niet dat ze aan de gelukkige kant willen zijn - maar dat ze zeker weten dat zij het is die op ons wacht.
Dit vertrouwen komt voort uit controverse. Critici geloven dat het voortkomt uit een oogverblindende opwinding die potentiële negatieve kanten overschaduwt. Maar voorstanders zeggen dat sombere voorspellingen altijd naïef zijn; technologie gaat door en zal ons altijd meer helpen dan schaden.
Je bent vrij om een van deze meningen te kiezen, maar zet scepsis opzij en kijk eens goed naar de gelukkige kant van de evenwichtsbalk, terwijl je probeert te accepteren dat alles wat je leest misschien al is gebeurd. Als je jager-verzamelaars onze wereld van comfort, technologie en eindeloze overvloed zou laten zien, zou het voor hen een magische fictie lijken - en we gedragen ons heel bescheiden, niet in staat om toe te geven dat dezelfde onbegrijpelijke transformatie ons in de toekomst wacht.
Nick Bostrom beschrijft drie paden die een superintelligent AI-systeem kan volgen:
* Een orakel dat elke exacte vraag kan beantwoorden, inclusief moeilijke vragen die mensen niet kunnen beantwoorden - bijvoorbeeld "hoe maak je een automotor efficiënter?" Google is een primitief type "orakel".
* Een geest die elk commando op hoog niveau uitvoert - met behulp van een moleculaire assembler om een nieuwe, efficiëntere versie van een automotor te maken - en wacht op het volgende commando.
* Een soeverein die brede toegang en het vermogen zal hebben om vrij in de wereld te functioneren, zijn eigen beslissingen neemt en het proces verbetert. Hij zal een goedkopere, snellere en veiligere manier van privévervoer uitvinden dan een auto.
Deze vragen en taken, die voor ons moeilijk lijken, zullen voor het superintelligente systeem lijken alsof iemand vroeg om de situatie te verbeteren "mijn potlood viel van de tafel", waarin je het gewoon zou oppakken en terugleggen.
Eliezer Yudkowski, een Amerikaanse specialist in kunstmatige intelligentie, verwoordde het goed:
“Er zijn geen harde problemen, alleen problemen die moeilijk zijn voor een bepaald niveau van intelligentie. Ga een stap hoger (in termen van intelligentie), en sommige problemen zullen plotseling van de categorie "onmogelijk" naar het kamp van "duidelijk" gaan. Een stap hoger - en ze zullen allemaal duidelijk worden."
Er zijn veel ongeduldige wetenschappers, uitvinders en ondernemers die een zone van zelfverzekerd comfort van onze tafel hebben gekozen, maar we hebben maar één gids nodig om voor het beste te lopen in deze beste werelden.
Ray Kurzweil is dubbelzinnig. Sommigen verafgoden zijn ideeën, sommigen verachten hem. Sommigen blijven in het midden - Douglas Hofstadter, die de ideeën van Kurzweils boeken besprak, merkte welsprekend op dat "het is alsof je veel goed eten en een kleine hondenpoep hebt genomen, en dan alles op zo'n manier hebt gemengd dat het onmogelijk is om te begrijpen wat is goed en wat is slecht."
Of je zijn ideeën nu leuk vindt of niet, het is onmogelijk om ze voorbij te laten gaan zonder een zweem van interesse. Als tiener begon hij dingen uit te vinden en in de daaropvolgende jaren vond hij een aantal belangrijke dingen uit, waaronder de eerste flatbedscanner, de eerste scanner die tekst naar spraak converteerde, de bekende Kurzweil-muzieksynthesizer (de eerste echte elektrische piano) en de eerste commercieel succesvolle spraakherkenner. Hij is ook de auteur van vijf sensationele boeken. Kurzweil wordt gewaardeerd om zijn gedurfde voorspellingen, en zijn staat van dienst is behoorlijk goed - eind jaren 80, toen internet nog in de kinderschoenen stond, voorspelde hij dat in de jaren 2000 het web een wereldwijd fenomeen zou worden. The Wall Street Journal noemde Kurzweil een 'rusteloos genie', Forbes een 'wereldwijde denkmachine', Inc. Magazine - "Edison's rechtmatige erfgenaam", Bill Gates - "de beste van degenen die de toekomst van kunstmatige intelligentie voorspellen." In 2012 nodigde Google mede-oprichter Larry Page Kurzweil uit voor de functie van CTO. In 2011 was hij mede-oprichter van Singularity University, die wordt gehost door NASA en deels wordt gesponsord door Google.
Zijn biografie is belangrijk. Als Kurzweil praat over zijn visie op de toekomst, klinkt het als een gekke gek, maar het echt gekke eraan is dat hij verre van gek is - hij is ongelooflijk slim, goed opgeleide en verstandige persoon. Je denkt misschien dat hij ongelijk heeft in zijn voorspellingen, maar hij is geen dwaas. De voorspellingen van Kurzweil worden gedeeld door veel comfortzone-experts, Peter Diamandis en Ben Herzel. Dit is wat hij denkt dat er gaat gebeuren.
Chronologie
Kurzweil gelooft dat computers tegen 2029 het niveau van algemene kunstmatige intelligentie (AGI) zullen bereiken en dat we in 2045 niet alleen kunstmatige superintelligentie zullen hebben, maar ook een compleet nieuwe wereld - de tijd van de zogenaamde singulariteit. De chronologie van AI wordt nog steeds als schandalig overdreven beschouwd, maar in de afgelopen 15 jaar heeft de snelle ontwikkeling van zeer gerichte kunstmatige intelligentie (AI)-systemen veel experts gedwongen om de kant van Kurzweil te kiezen. Zijn voorspellingen zijn nog ambitieuzer dan die in het onderzoek van Bostrom (AGI in 2040, ISI in 2060), maar niet veel.
Volgens Kurzweil wordt de Singulariteit van 2045 aangedreven door drie gelijktijdige revoluties in biotechnologie, nanotechnologie en, belangrijker nog, AI. Maar voordat we verder gaan - en nanotechnologie volgt kunstmatige intelligentie op de voet - laten we even stilstaan bij nanotechnologie.
Een paar woorden over nanotechnologie
Meestal noemen we nanotechnologietechnologieën die zich bezighouden met de manipulatie van materie in het bereik van 1-100 nanometer. Een nanometer is een miljardste van een meter, of een miljoenste van een millimeter; binnen het bereik van 1-100 nanometer kunnen virussen (100 nm in diameter), DNA (10 nm in breedte), hemoglobinemoleculen (5 nm), glucose (1 nm) en andere worden ondergebracht. Als nanotechnologie ooit aan ons wordt onderworpen, is de volgende stap het manipuleren van individuele atomen die kleiner zijn dan één orde van grootte (~, 1 nm).
Om te begrijpen waar mensen problemen tegenkomen bij het manipuleren van materie op zo'n schaal, gaan we naar een grotere schaal. Het internationale ruimtestation bevindt zich 481 kilometer boven de aarde. Als mensen reuzen waren en het ISS met hun hoofd zouden raken, zouden ze 250.000 keer groter zijn dan ze nu zijn. Als je iets van 1 tot 100 nanometer 250.000 keer vergroot, krijg je 2,5 centimeter. Nanotechnologie is het equivalent van een mens die in een baan om het ISS draait en dingen probeert te manipuleren ter grootte van een zandkorrel of een oogbol. Om naar het volgende niveau te komen - de beheersing van individuele atomen - zal de reus objecten met een diameter van 1/40 millimeter zorgvuldig moeten positioneren. Gewone mensen hebben een microscoop nodig om ze te zien.
In 1959 sprak Richard Feynman voor het eerst over nanotechnologie. Toen zei hij: 'De principes van de natuurkunde spreken, voor zover ik kan nagaan, niet tegen de mogelijkheid om dingen atoom voor atoom te beheersen. In principe kan een natuurkundige elke chemische stof synthetiseren die een scheikundige heeft opgeschreven. Hoe? Door atomen te plaatsen waar de chemicus zegt de stof te krijgen. Dit is de hele eenvoud. Als je weet hoe je individuele moleculen of atomen moet verplaatsen, kun je bijna alles.
Nanotechnologie werd een serieus wetenschappelijk gebied in 1986 toen ingenieur Eric Drexler de basis ervan presenteerde in zijn baanbrekende boek Machines of Creation, maar Drexler zelf gelooft dat degenen die meer willen weten over moderne ideeën in nanotechnologie, zijn boek uit 2013 moeten lezen. Volledige overvloed (Radical Overvloed).
Een paar woorden over "grijze goo"
We duiken dieper in nanotechnologie. Met name het onderwerp "grijze smurrie" is een van de niet erg prettige onderwerpen op het gebied van nanotechnologie, die niet kan worden genegeerd. Oudere versies van de theorie van nanotechnologie stelden een nano-assemblagemethode voor waarbij biljoenen kleine nanorobots werden gemaakt die zouden samenwerken om iets te creëren. Een manier om biljoenen nanorobots te maken, is door er een te maken die zichzelf kan repliceren, dat wil zeggen van één naar twee, van twee naar vier, enzovoort. Verscheidene biljoen nanorobots zullen op een dag verschijnen. Dit is de kracht van exponentiële groei. Grappig, niet?
Het is grappig, maar precies totdat het leidt tot de apocalyps. Het probleem is dat de kracht van exponentiële groei, waardoor het een vrij handige manier is om snel een biljoen nanobots te maken, zelfreplicatie op de lange termijn eng maakt. Wat als het systeem crasht en in plaats van de replicatie voor een paar biljoen te stoppen, nanobots zich blijven voortplanten? Wat als dit hele proces afhankelijk is van koolstof? De biomassa van de aarde bevat 10^45 koolstofatomen. Een nanobot zou in de orde van grootte van 10 ^ 6 koolstofatomen moeten zijn, dus 10 ^ 39 nanobots zullen al het leven op aarde verslinden in slechts 130 replicaties. Een oceaan van nanobots ("grijze goo") zal de planeet overspoelen. Wetenschappers denken dat nanobots in 100 seconden kunnen repliceren, wat betekent dat een simpele fout al het leven op aarde in slechts 3,5 uur kan doden.
Het zou nog erger kunnen zijn - als terroristen en ongunstige specialisten de handen van nanotechnologie bereiken. Ze zouden enkele biljoenen nanobots kunnen maken en deze programmeren om zich in een paar weken stilletjes over de wereld te verspreiden. Dan eten ze met een druk op de knop in slechts 90 minuten alles zonder enige kans op.
Hoewel dit horrorverhaal al jaren veel besproken wordt, is het goede nieuws dat het gewoon een horrorverhaal is. Eric Drexler, die de term "grijze goo" bedacht, zei onlangs het volgende: "Mensen houden van horrorverhalen, en dit is een van de zombie-horrorverhalen. Dit idee op zich vreet al hersens."
Als we nanotechnologie eenmaal tot op de bodem hebben doorzocht, kunnen we het gebruiken om technische apparaten, kleding, voedsel, bioproducten te maken - bloedcellen, virus- en kankerbestrijders, spierweefsel, enzovoort - wat dan ook. En in een wereld die nanotechnologie gebruikt, zijn de kosten van een materiaal niet langer gekoppeld aan de schaarste of de complexiteit van het productieproces, maar eerder aan de complexiteit van de atomaire structuur. In de wereld van nanotechnologie zou een diamant goedkoper kunnen zijn dan een gum.
We zijn er nog niet eens in de buurt. En het is niet helemaal duidelijk of we de complexiteit van dit pad onderschatten of overschatten. Alles gaat echter zo ver dat nanotechnologie niet ver weg is. Kurzweil gaat ervan uit dat we ze in de jaren 2020 zullen hebben. De wereldstaten weten dat nanotechnologie een grote toekomst kan beloven en investeren er dan ook vele miljarden in.
Stelt u zich eens voor welke mogelijkheden een superintelligente computer zou krijgen als hij bij een betrouwbare assembler op nanoschaal terecht zou komen. Maar nanotechnologie is ons idee, en we proberen erop te rijden, het is moeilijk voor ons. Wat als ze gewoon een grap zijn voor het ISI-systeem, en de ISI zelf komt met technologieën die vele malen krachtiger zullen zijn dan alles wat we in principe kunnen aannemen? We waren het erover eens: niemand kan zich voorstellen waartoe kunstmatige superintelligentie in staat zal zijn? Er wordt aangenomen dat onze hersenen niet in staat zijn om zelfs maar het minimum te voorspellen van wat er zal gebeuren.
Wat zou AI voor ons kunnen doen?
Gewapend met superintelligentie en alle technologie die superintelligentie zou kunnen creëren, zal ISI waarschijnlijk alle problemen van de mensheid kunnen oplossen. Opwarming van de aarde? ISI zal eerst de CO2-uitstoot stoppen door een groot aantal efficiënte manieren te bedenken om energie op te wekken die geen verband houdt met fossiele brandstoffen. Vervolgens komt hij met een effectieve, innovatieve manier om overtollig CO2 uit de atmosfeer te halen. Kanker en andere ziekten? Geen probleem - gezondheidszorg en geneeskunde zullen veranderen op manieren die onvoorstelbaar zijn. Wereldhonger? ISI zal nanotechnologie gebruiken om vlees te maken dat identiek is aan natuurlijk, helemaal opnieuw, echt vlees.
Nanotechnologie zal in staat zijn om van een stapel afval een vat met vers vlees of ander voedsel te maken (niet noodzakelijkerwijs zelfs in zijn gebruikelijke vorm - stel je een gigantisch appelblokje voor) en al dit voedsel over de hele wereld te distribueren met behulp van geavanceerde transportsystemen. Dit is natuurlijk geweldig voor dieren die niet meer hoeven te sterven voor voedsel. ISI kan ook veel andere dingen doen, zoals het in stand houden van bedreigde diersoorten, of zelfs uitgestorven soorten terughalen uit opgeslagen DNA. ISI kan onze moeilijkste macro-economische problemen oplossen - onze moeilijkste economische debatten, ethische en filosofische kwesties, wereldhandel - die allemaal pijnlijk duidelijk zullen zijn voor ISI.
Maar er is iets heel bijzonders dat ISI voor ons kan doen. Verleidelijk en prikkelend dat alles zou veranderen: ISI kan ons helpen om te gaan met sterfte … Geleidelijk aan het begrijpen van de mogelijkheden van AI, misschien heroverweeg je al je ideeën over de dood.
Er was geen reden voor evolutie om onze levensduur langer te verlengen dan nu het geval is. Als we lang genoeg leven om te baren en kinderen op te voeden tot het punt waarop ze voor zichzelf kunnen zorgen, is evolutie voldoende. Vanuit evolutionair oogpunt is 30+ jaar voldoende voor ontwikkeling, en er is geen reden voor mutaties om het leven te verlengen en de waarde van natuurlijke selectie te verminderen. William Butler Yates noemde onze soort 'een ziel die gehecht is aan een stervend dier'. Niet erg leuk.
En aangezien we allemaal op een dag sterven, leven we met het idee dat de dood onvermijdelijk is. We denken aan veroudering in de loop van de tijd - doorgaan met vooruitgaan en dit proces niet kunnen stoppen. Maar de gedachte aan de dood is verraderlijk: erdoor gevangen, vergeten we te leven. Richard Feynman schreef:
“Er is iets wonderbaarlijks in de biologie: er is niets in deze wetenschap dat zou spreken over de noodzaak van de dood. Als we een perpetuum mobile willen maken, realiseren we ons dat we genoeg wetten in de natuurkunde hebben gevonden die ofwel de onmogelijkheid hiervan aangeven, of dat de wetten verkeerd zijn. Maar er is niets in de biologie dat zou kunnen wijzen op de onvermijdelijkheid van de dood. Dit doet me geloven dat het niet zo onvermijdelijk is, en het is slechts een kwestie van tijd voordat biologen de oorzaak van dit probleem ontdekken, deze vreselijke universele ziekte, het zal worden genezen.
Feit is dat ouder worden niets met tijd te maken heeft. Veroudering is wanneer de fysieke materialen van het lichaam verslijten. Auto-onderdelen gaan ook achteruit - maar is veroudering onvermijdelijk? Als u uw auto repareert omdat de onderdelen verslijten, gaat deze voor altijd mee. Het menselijk lichaam is niet anders - alleen complexer.
Kurzweil heeft het over intelligente, met wifi verbonden nanobots in de bloedbaan die talloze taken voor de menselijke gezondheid zouden kunnen uitvoeren, waaronder het regelmatig repareren of vervangen van versleten cellen overal in het lichaam. Het verbeteren van dit proces (of het vinden van een alternatief dat wordt gesuggereerd door een slimmere ASI) zal niet alleen het lichaam gezond houden, het kan ook veroudering tegengaan. Het verschil tussen het lichaam van een 60-jarige en een 30-jarige is een handvol fysieke problemen die met de juiste technologie kunnen worden gecorrigeerd. ISI zou een auto kunnen bouwen waar een persoon in zou stappen als hij 60 jaar oud was en zou vertrekken als hij 30 jaar oud was.
Zelfs een gedegradeerd brein kan worden vernieuwd. De ISI zou zeker weten hoe dit te doen zonder de hersengegevens (persoonlijkheid, herinneringen, enz.) te beïnvloeden. Een 90-jarige man die lijdt aan volledige hersenafbraak, kan zich omscholen, vernieuwen en terugkeren naar het begin van zijn leven. Het lijkt misschien absurd, maar het lichaam is een handvol atomen, en de ISI zou ze zeker gemakkelijk kunnen manipuleren, alle atomaire structuren. Zo absurd is het niet.
Kurzweil gelooft ook dat kunstmatige materialen met het verstrijken van de tijd steeds meer in het lichaam zullen integreren. Om te beginnen zouden de orgels kunnen worden vervangen door supergeavanceerde machineversies die eeuwig meegaan en nooit falen. Dan zouden we een compleet herontwerp van het lichaam kunnen doen, waarbij we rode bloedcellen vervangen door perfecte nanobots die zelfstandig bewegen, waardoor er helemaal geen hart meer nodig is. We kunnen ook onze cognitieve vaardigheden verbeteren, miljarden keren sneller gaan denken en toegang krijgen tot alle informatie die de mensheid ter beschikking staat via de cloud.
De mogelijkheden om nieuwe horizonten te begrijpen zouden werkelijk eindeloos zijn. Mensen zijn erin geslaagd om seks een nieuw doel te geven, ze doen het voor hun plezier, niet alleen voor reproductie. Kurzweil gelooft dat we hetzelfde kunnen doen met voedsel. Nanobots zouden ideale voeding rechtstreeks aan de lichaamscellen kunnen leveren, waardoor ongezonde stoffen door het lichaam kunnen gaan. Nanotechnologietheoreticus Robert Freitas heeft al een vervanging voor bloedcellen ontwikkeld, die hem, wanneer geïmplementeerd in het menselijk lichaam, 15 minuten niet kan ademen - en dit is uitgevonden door een persoon. Stel je voor wanneer de ISI aan de macht komt.
Kurzweil gelooft immers dat mensen het punt zullen bereiken waarop ze volledig kunstmatig worden; de tijd dat we naar biologische materialen kijken en nadenken over hoe primitief ze waren; tijd waarin we zullen lezen over de vroege stadia van de menselijke geschiedenis, verbaasd over hoe ziektekiemen, ongelukken, ziekten of gewoon ouderdom iemand tegen zijn wil kunnen doden. Uiteindelijk zullen mensen hun eigen biologie verslaan en eeuwig worden - dit is het pad naar de gelukkige kant van de evenwichtsbalk waar we het vanaf het begin over hebben gehad. En mensen die hierin geloven, zijn er ook zeker van dat zo'n toekomst ons heel, heel snel te wachten staat.
Het zal je waarschijnlijk niet verbazen dat Kurzweils ideeën veel kritiek hebben gekregen. Zijn singulariteit in 2045 en het daaropvolgende eeuwige leven voor mensen werd "de hemelvaart van nerds" of "intelligente creatie van mensen met een IQ van 140" genoemd. Anderen zetten vraagtekens bij het optimistische tijdsbestek, het begrip van het menselijk lichaam en de hersenen, herinnerd aan de wet van Moore, die nog niet is verdwenen. Voor elke expert die in Kurzweils ideeën gelooft, zijn er drie die denken dat hij ongelijk heeft.
Maar het meest interessante hieraan is dat de meeste experts die het niet met hem eens zijn, over het algemeen niet zeggen dat dit onmogelijk is. In plaats van te zeggen "bullshit, dit zal nooit gebeuren", zeggen ze iets als "dit alles zal gebeuren als we bij de ISI komen, maar dit is het probleem." Bostrom, een van de veelgeprezen AI-experts die waarschuwt voor AI-gevaren, geeft ook toe:
“Er is bijna geen probleem meer dat superintelligentie niet kan oplossen, of ons zelfs maar kan helpen oplossen. Ziekte, armoede, vernietiging van het milieu, allerlei soorten lijden - al deze superintelligentie kan met behulp van nanotechnologie in een oogwenk worden opgelost. Superintelligentie kan ons ook een onbeperkte levensduur geven door het verouderingsproces te stoppen en om te keren met behulp van nanogeneeskunde of de mogelijkheid om ons naar de cloud te uploaden. Superintelligentie kan ook kansen creëren voor eindeloze toename van intellectuele en emotionele capaciteiten; hij kan ons helpen een wereld te creëren waarin we in vreugde en begrip zullen leven, onze idealen benaderen en regelmatig onze dromen waarmaken."
Dit is echter een citaat van een van Kurzweils critici die toegeeft dat dit allemaal mogelijk is als we een veilige ASI kunnen creëren. Kurzweil definieerde eenvoudig wat kunstmatige superintelligentie zou moeten worden, als dat al mogelijk was. En of hij een goede god is.
De meest voor de hand liggende kritiek op voorstanders van comfortzones is dat ze verdomd ongelijk kunnen hebben als ze de toekomst van ISI beoordelen. In zijn boek The Singularity wijdde Kurzweil 20 pagina's van 700 potentiële ISI-bedreigingen. De vraag is niet wanneer we bij ISI komen, de vraag is wat de motivatie zal zijn. Kurzweil beantwoordt deze vraag voorzichtig: “ISI komt voort uit vele verschillende inspanningen en zal diep geïntegreerd zijn in de infrastructuur van onze beschaving. In feite zal het nauw verankerd zijn in ons lichaam en onze hersenen. Hij zal onze waarden weerspiegelen omdat hij één met ons zal zijn."
Maar als het antwoord is, waarom maken zoveel slimme mensen in deze wereld zich zorgen over de toekomst van kunstmatige intelligentie? Waarom zegt Stephen Hawking dat de ontwikkeling van ISI "het einde van de mensheid zou kunnen betekenen"? Bill Gates zegt dat hij "mensen die er geen last van hebben" niet begrijpt. Elon Musk vreest dat we "een demon oproepen". Waarom beschouwen veel experts ISI als de grootste bedreiging voor de mensheid?
We zullen hier de volgende keer over praten.