Nick Bostrom: Are We Living in a Computer Simulation (2001)

Jag samlar alla de viktigaste texterna genom alla tider och folkslag som påverkar världsbilden och bildandet av en världsbild ("Ontol"). Och så tänkte och tänkte jag och lade fram en vågad hypotes att denna text är mer revolutionerande och viktig i vår förståelse av världens struktur än den kopernikanska revolutionen och Kants verk. I RuNet var den här texten (fullversionen) i ett fruktansvärt skick, jag rensade upp den lite och, med tillstånd av översättaren, publicerar den för diskussion.

Nick Bostrom: Are We Living in a Computer Simulation (2001)

"Lever du i en datorsimulering?"

av Nick Bostrom [Publicerad i Philosophical Quarterly (2003) Vol. 53, nr. 211, sid. 243-255. (Första versionen: 2001)]

Denna artikel anger att minst ett av följande tre antaganden är sant:

  • (1) det är mycket troligt att mänskligheten kommer att dö ut innan man når den "postmänskliga" fasen;
  • (2) varje post-mänsklig civilisation med extrema låg sannolikhet kommer att köra ett betydande antal simuleringar av dess evolutionära historia (eller variationer därav) och
  • (3) det är vi nästan säkert lever i en datorsimulering.

Det följer av detta att sannolikheten för att vara i en fas av post-mänsklig civilisation, som kommer att kunna köra simuleringar av sina föregångare, är noll, om vi inte accepterar att vi redan lever i en simulering som sant. Andra implikationer av detta resultat diskuteras också.

1. Introduktion

Många science fiction-verk, såväl som seriösa framtidsforskares och teknikforskares prognoser, förutspår att kolossala mängder datorkraft kommer att finnas tillgänglig i framtiden. Låt oss anta att dessa förutsägelser är korrekta. Till exempel kommer efterföljande generationer med sina superkraftiga datorer att kunna köra detaljerade simuleringar av sina föregångare eller personer som liknar sina föregångare. Eftersom deras datorer kommer att vara så kraftfulla kommer de att kunna köra många liknande simuleringar. Låt oss anta att dessa simulerade människor är medvetna (och det kommer de att vara om simuleringen är mycket exakt och om ett visst allmänt accepterat medvetandebegrepp inom filosofin är korrekt). Det följer att det största antalet sinnen som vårt inte tillhör den ursprungliga rasen, utan snarare tillhör människor som simuleras av avancerade ättlingar till den ursprungliga rasen. Baserat på detta kan man hävda att det är rimligt att förvänta sig att vi är bland simulerade, snarare än ursprungliga, naturliga biologiska sinnen. Såvida vi inte tror att vi nu lever i en datorsimulering, bör vi inte anta att våra ättlingar kommer att köra många simuleringar av sina förfäder. Detta är huvudtanken. Vi kommer att titta på detta mer i detalj i resten av denna artikel.

Utöver det intresse som denna uppsats kan ha för dem som är inblandade i futuristiska diskussioner finns det också ett rent teoretiskt intresse. Detta bevis stimulerar formuleringen av vissa metodologiska och metafysiska problem, och erbjuder också några naturliga analogier till traditionella religiösa begrepp, och dessa analogier kan verka överraskande eller suggestiva.

Strukturen i den här artikeln är som följer: i början kommer vi att formulera ett visst antagande som vi måste importera från sinnets filosofi för att detta bevis ska fungera. Vi kommer sedan att titta på några empiriska skäl för att tro att det kommer att vara möjligt att köra ett stort antal simuleringar av mänskliga sinnen för en framtida civilisation som kommer att utveckla många av samma teknologier som har visat sig vara förenliga med kända fysiska lagar och tekniska begränsningar.

Denna del är inte nödvändig ur filosofisk synvinkel, men uppmuntrar ändå uppmärksamheten till artikelns huvudidé. Detta kommer att följas av en sammanfattning av beviset, med några enkla tillämpningar av sannolikhetsteori, och ett avsnitt som motiverar den svaga ekvivalensprincipen som beviset använder. Slutligen kommer vi att diskutera några tolkningar av det inledningsvis nämnda alternativet, och detta blir slutsatsen av beviset om simuleringsproblemet.

2. Antagande om medias oberoende

Ett vanligt antagande inom sinnefilosofi är antagandet om medelhög självständighet. Tanken är att mentala tillstånd kan uppstå i vilken som helst av en bred klass av fysiska medier. Förutsatt att systemet förkroppsligar rätt uppsättning beräkningsstrukturer och processer, kan medvetna upplevelser uppstå inom det. Den väsentliga egenskapen är inte förkroppsligandet av intrakraniella processer i kolbaserade biologiska nervnätverk: kiselbaserade processorer inuti datorer kan göra exakt samma trick. Argument för denna avhandling har framförts i den befintliga litteraturen, och även om det inte är helt konsekvent, kommer vi att ta det för givet här.

Beviset vi erbjuder här beror dock inte på någon mycket stark version av funktionalism eller beräkningsteknik. Till exempel bör vi inte acceptera att tesen om medium oberoende nödvändigtvis är sann (i antingen analytisk eller metafysisk mening) - utan bara att i själva verket kan en dator under kontroll av ett lämpligt program vara medveten . Dessutom bör vi inte anta att för att skapa medvetenhet i en dator, måste vi programmera den på ett sådant sätt att den beter sig som en människa i alla fall, klarar Turing-testet etc. Vi behöver bara ett svagare antagande. att för att skapa subjektiva upplevelser är det tillräckligt att beräkningsprocesserna i den mänskliga hjärnan strukturellt kopieras med lämpliga högprecisionsdetaljer, till exempel på nivån för individuella synapser. Denna raffinerade version av medias oberoende är ganska allmänt accepterad.

Neurotransmittorer, nervtillväxtfaktorer och andra kemikalier som är mindre än synapser spelar helt klart en roll i mänsklig kognition och inlärning. Tesen om fordonsoberoende är inte att effekterna av dessa kemikalier är små eller försumbara, utan att de påverkar subjektiv upplevelse endast genom direkta eller indirekta effekter på beräkningsaktivitet. Till exempel, om det inte finns några subjektiva skillnader utan att det också finns en skillnad i synaptisk urladdning, är den nödvändiga simuleringsdetaljen på den synaptiska nivån (eller högre).

3. Beräkningstekniska gränser

På nuvarande nivå av teknisk utveckling har vi varken tillräckligt kraftfull hårdvara eller tillräcklig mjukvara för att skapa medvetna sinnen på en dator. Men starka argument har framförts för att om den tekniska utvecklingen fortsätter i oförminskad takt, så kommer dessa begränsningar så småningom att övervinnas. Vissa författare hävdar att denna fas kommer att inträffa om bara några decennier. Men för vår diskussion krävs inga antaganden om tidsskalan. Simuleringsbeviset fungerar lika bra för dem som tror att det kommer att ta hundratusentals år att nå den "postmänskliga" utvecklingsfasen, då mänskligheten kommer att ha skaffat sig de flesta av de tekniska förmågor som nu kan visas vara konsekventa med fysiska lagar och med materiella lagar och energibegränsningar.

Denna mogna fas av teknisk utveckling kommer att göra det möjligt att förvandla planeter och andra astronomiska resurser till datorer med kolossal makt. För närvarande är det svårt att vara säker på några gränser för den datorkraft som kommer att vara tillgänglig för posthumana civilisationer. Eftersom vi fortfarande inte har en "teori om allt", kan vi inte utesluta möjligheten att nya fysiska fenomen, förbjudna av nuvarande fysikaliska teorier, skulle kunna användas för att övervinna de begränsningar som, enligt vår nuvarande förståelse, sätter teoretiska gränser för information bearbetning inom detta ämne. Med mycket större tillförsikt kan vi sätta nedre gränser för posthuman beräkning, förutsatt att vi bara antar de mekanismer som redan är förstått. Till exempel skissade Eric Drexler ut en design för ett system storleken på en sockerbit (minus kylning och strömförsörjning) som kunde utföra 1021 operationer per sekund. En annan författare gav en grov uppskattning av 1042 operationer per sekund för en dator av planetstorlek. (Om vi ​​lär oss att bygga kvantdatorer, eller lär oss att bygga datorer av kärnämne eller plasma, kan vi komma ännu närmare de teoretiska gränserna. Seth Lloyd beräknade den övre gränsen för en 1 kg dator till 5 * 1050 logiska operationer per sekund utförs på 1031 bitar. Men för våra ändamål är det tillräckligt att använda mer konservativa uppskattningar, som endast innebär de principer för drift som för närvarande är kända.)

Mängden datorkraft som krävs för att efterlikna en mänsklig hjärna kan grovt uppskattas på exakt samma sätt. En uppskattning, baserad på hur beräkningsmässigt dyrt det skulle vara att kopiera funktionen hos en bit neural vävnad som vi redan förstår och vars funktionalitet redan har kopierats i kisel (det vill säga kontrastförstärkningssystemet i näthinnan kopierades), ger en uppskattning av cirka 1014 operationer per sekund. En alternativ uppskattning, baserad på antalet synapser i hjärnan och frekvensen av deras avfyring, ger ett värde på 1016-1017 operationer per sekund. Följaktligen kan ännu mer datorkraft krävas om vi i detalj vill simulera de interna funktionerna hos synapser och dendritiska grenar. Det är dock troligt att det mänskliga centrala nervsystemet har en viss redundans på mikronivå för att kompensera för opålitligheten och bruset hos dess neurala komponenter. Därför skulle man förvänta sig betydande effektivitetsvinster när man använder mer pålitliga och flexibla icke-biologiska processorer.

Minnet är inte mer av en begränsning än processorkraft. Dessutom, eftersom det maximala flödet av mänskliga sensoriska data är i storleksordningen 108 bitar per sekund, skulle simulering av alla sensoriska händelser kräva försumbar kostnad jämfört med simulering av kortikal aktivitet. Således kan vi använda den processorkraft som krävs för att simulera det centrala nervsystemet som en uppskattning av den totala beräkningskostnaden för att simulera det mänskliga sinnet.

Om miljön ingår i simuleringen kommer den att kräva ytterligare datorkraft – mängden beror på simuleringens storlek och detalj. Att simulera hela universum med kvantprecision är uppenbarligen omöjligt om inte någon ny fysik upptäcks. Men för att uppnå en realistisk simulering av mänsklig erfarenhet krävs mycket mindre – precis tillräckligt för att säkerställa att simulerade människor som interagerar på normala mänskliga sätt med en simulerad miljö inte kommer att märka någon skillnad. Den mikroskopiska strukturen av jordens inre kan lätt utelämnas. Avlägsna astronomiska objekt kan utsättas för mycket höga nivåer av kompression: exakta likheter behöver bara finnas inom ett snävt område av egenskaper som vi kan observera från vår planet eller från rymdfarkoster i solsystemet. På jordens yta måste makroskopiska objekt på obebodda platser kontinuerligt simuleras, men mikroskopiska fenomen kan fyllas i ad hoc, det vill säga efter behov. Det du ser genom ett elektronmikroskop ska inte se misstänkt ut, men du har vanligtvis inget sätt att kontrollera dess överensstämmelse med oobserverbara delar av mikrovärlden. Undantag uppstår när vi medvetet designar system för att utnyttja oobserverbara mikroskopiska fenomen som fungerar enligt kända principer för att producera resultat som vi oberoende kan verifiera. Det klassiska exemplet på detta är datorn. Simulering måste därför involvera kontinuerliga simuleringar av datorer ner till nivån för individuella logiska grindar. Detta är inget problem eftersom vår nuvarande datorkraft är försumbar med post-mänskliga standarder.

Dessutom skulle en posthuman simuleringsskapare ha tillräckligt med datorkraft för att i detalj övervaka tankarnas tillstånd i alla mänskliga hjärnor hela tiden. På så sätt, när han upptäcker att en person är villig att göra några observationer om mikrovärlden, kan han fylla i simuleringen med en tillräcklig detaljnivå efter behov. Om något fel skulle uppstå kan simuleringsregissören enkelt redigera tillstånden för alla hjärnor som blev medvetna om anomalien innan den förstörde simuleringen. Eller så kan regissören spola tillbaka simuleringen några sekunder och starta om den på ett sätt som undviker problemet.

Det följer att den dyraste delen av att skapa en simulering som inte går att skilja från den fysiska verkligheten för de mänskliga sinnena inom den skulle vara att skapa simuleringar av organiska hjärnor ner till den neurala eller subneurala nivån. Även om det är omöjligt att ge en mycket exakt uppskattning av kostnaden för en realistisk simulering av mänsklighetens historia, kan vi använda uppskattningen av 1033-1036 operationer som en grov uppskattning.

När vi får mer erfarenhet av att skapa virtuell verklighet kommer vi att få en bättre förståelse för de beräkningskrav som är nödvändiga för att få sådana världar att framstå som realistiska för sina besökare. Men även om vår uppskattning är felaktig i flera storleksordningar, gör detta inte så stor skillnad för vårt bevis. Vi noterade att en grov uppskattning av processorkraften hos en planetmassadator är 1042 operationer per sekund, och detta tar bara hänsyn till redan kända nanoteknikdesigner, som sannolikt är långt ifrån optimala. En sådan dator kan simulera mänsklighetens hela mentala historia (låt oss kalla det en simulering av förfäder) med bara en miljondel av dess resurser på 1 sekund. En postmänsklig civilisation kan så småningom bygga ett astronomiskt antal sådana datorer. Vi kan dra slutsatsen att en posthuman civilisation kan köra ett kolossalt antal förfäders simuleringar, även om den bara spenderar en liten bråkdel av sina resurser på det. Vi kan nå denna slutsats även med betydande felmarginal i alla våra uppskattningar.

  • Posthumana civilisationer kommer att ha tillräckligt med datorresurser för att köra ett stort antal förfäders simuleringar, även om de använder en mycket liten del av sina resurser för dessa ändamål.

4. Kärnan av simuleringsbevis

Huvudidén med denna artikel kan uttryckas på följande sätt: om det finns en betydande chans att vår civilisation en dag kommer att nå det post-mänskliga stadiet och köra många förfäders simuleringar, hur kan vi då bevisa att vi inte lever i en sådan simulering?

Vi kommer att utveckla denna idé i form av ett rigoröst bevis. Låt oss introducera följande notation:

Nick Bostrom: Are We Living in a Computer Simulation (2001) – Andelen av alla civilisationer på mänsklig nivå som överlever till det postmänskliga stadiet;
N är det genomsnittliga antalet förfadersimuleringar som lanserats av en posthuman civilisation;
H är det genomsnittliga antalet människor som levde i en civilisation innan den nådde det postmänskliga stadiet.

Då är den verkliga andelen av alla observatörer med mänsklig erfarenhet som lever i simuleringen:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

Låt oss beteckna som andelen posthumana civilisationer som är intresserade av att köra förfädersimuleringar (eller som innehåller åtminstone ett antal individuella varelser som är intresserade av att göra det och har betydande resurser för att köra ett betydande antal simuleringar) och som det genomsnittliga antalet av förfadersimuleringar som drivs av sådana intresserade civilisationer får vi:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

Och därför:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

På grund av postmänskliga civilisationers kolossala datorkraft är detta ett extremt stort värde, som vi såg i föregående avsnitt. Om vi ​​tittar på formel (*) kan vi se att minst ett av följande tre antaganden är sant:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

5. Mjuk likvärdighetsprincip

Vi kan gå ett steg längre och dra slutsatsen att om (3) är sant kan du vara nästan säker på att du befinner dig i en simulering. Generellt sett, om vi vet att en andel x av alla observatörer med erfarenhet av mänsklig typ lever i en simulering, och vi inte har någon ytterligare information som visar att vår egen privata erfarenhet mer eller mindre sannolikt kommer att förkroppsligas i en maskin snarare än i vivo än andra typer av mänsklig erfarenhet, och då måste vår tilltro till att vi befinner oss i en simulering vara lika med x:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

Detta steg motiveras av en mycket svag likvärdighetsprincip. Låt oss skilja de två fallen åt. I det första fallet, vilket är enklare, är alla sinnen som undersöks som dina, i den meningen att de är exakt kvalitativt desamma som ditt sinne: de har samma information och samma erfarenheter som du. I det andra fallet liknar sinnena bara varandra i vid mening, eftersom de är den typen av sinnen som är typiska för människor, men kvalitativt olika varandra och var och en har olika erfarenheter. Jag hävdar att även i de fall där sinnena är kvalitativt olika fungerar beviset för simulering fortfarande, förutsatt att du inte har någon information som svarar på frågan om vilka av de olika sinnen som simuleras och vilka som är biologiskt realiserade.

En detaljerad motivering för den mer rigorösa principen, som inkluderar båda våra särskilda exempel som triviala specialfall, har givits i litteraturen. Brist på utrymme tillåter oss inte att presentera hela logiken här, men vi kan här ge en av de intuitiva motiveringarna. Låt oss föreställa oss att x% av en population har en viss genetisk sekvens S inom en viss del av sitt DNA, vilket brukar kallas "skräp-DNA". Antag vidare att det inte finns några manifestationer av S (andra än de som kan uppträda under genetisk testning) och att det inte finns några korrelationer mellan innehav av S och eventuella yttre manifestationer. Det är då ganska uppenbart att innan ditt DNA sekvenseras är det rationellt att tillskriva hypotesen att du har fragment S, x% förtroende. Och detta är ganska oberoende av det faktum att människor som har S har sinnen och erfarenheter som är kvalitativt olika från personer som inte har S. (De är olika helt enkelt för att alla människor har olika erfarenheter, inte för att det finns någon direkt koppling mellan S och den typ av erfarenhet som en person har.)

Samma resonemang gäller om S inte är egenskapen att ha en viss genetisk sekvens, utan istället faktumet att vara i en simulering, under antagandet att vi inte har någon information som gör att vi kan förutsäga eventuella skillnader mellan de simulerade sinnens upplevelser och mellan de ursprungliga biologiska sinnens erfarenheter

Det bör understrykas att den mjuka likvärdighetsprincipen endast betonar likvärdigheten mellan hypoteser om vilken observatör du är, när du inte har någon information om vilken observatör du är. Den tilldelar i allmänhet inte ekvivalens mellan hypoteser när du inte har specifik information om vilken hypotes som är sann. Till skillnad från Laplace och andra starkare likvärdighetsprinciper är den således inte föremål för Bertrands paradox och andra liknande svårigheter som komplicerar den oinskränkta tillämpningen av likvärdighetsprinciper.

Läsare som är bekanta med Doomsday-argumentet (DA) (J. Leslie, "Is the End of the World Negh?" Philosophical Quarterly 40, 158: 65-72 (1990)) kan oroa sig för att den likvärdighetsprincip som tillämpas här vilar på samma antaganden som är ansvariga för att slå ut mattan under DA, och att kontraintuitiviteten i några av dess slutsatser kastar en skugga över giltigheten av simuleringsargumentet. Detta är fel. DA vilar på den mycket mer rigorösa och kontroversiella premissen att en person bör resonera som om han vore ett slumpmässigt urval från hela befolkningen av människor som någonsin har levt och kommer att leva (förr, nutid och framtid), trots det faktum att vi vet att vi lever i början av XNUMX-talet, och inte någon gång i en avlägsen framtid. Den mjuka osäkerhetsprincipen gäller endast i de fall vi inte har ytterligare information om vilken grupp människor vi tillhör.

Om vadslagning är någon grund för rationell tro, då om alla satsar på om de är i en simulering eller inte, då om folk använder den mjuka osäkerhetsprincipen och satsar på att de är i en simulering baserad på vetskapen om att de flesta människor är i den kommer nästan alla att vinna sina insatser. Om de satsar att de inte är med i en simulering kommer nästan alla att förlora. Det verkar mer användbart att följa principen om mjuk ekvivalens. Vidare kan man föreställa sig en sekvens av möjliga situationer där en ökande andel människor lever i simuleringar: 98 %, 99 %, 99.9 %, 99.9999 % och så vidare. När man närmar sig den övre gränsen, där alla lever i en simulering (av vilken man deduktivt kan sluta sig till att alla är i en simulering), verkar det rimligt att kräva att den säkerhet man tillskriver att vara i en simulering smidigt och kontinuerligt ska närma sig begränsande gräns för fullständigt förtroende.

6. Tolkning

Den möjlighet som nämns i punkt (1) är ganska tydlig. Om (1) är sant, kommer mänskligheten nästan säkert att misslyckas med att nå den posthumana nivån; ingen art på vår utvecklingsnivå blir posthuman, och det är svårt att hitta någon motivering för att tro att vår egen art har några fördelar eller särskilt skydd mot framtida katastrofer. Givet villkor (1) måste vi därför tilldela Doom (DOOM) hög rimlighet, det vill säga hypotesen att mänskligheten kommer att försvinna innan den når den posthumana nivån:

Nick Bostrom: Are We Living in a Computer Simulation (2001)

Vi kan föreställa oss en hypotetisk situation där vi har data som överlappar vår kunskap om fp. Till exempel, om vi befinner oss på väg att träffas av en gigantisk asteroid, kan vi anta att vi hade exceptionellt otur. Vi kan då tillskriva Doom-hypotesen större giltighet än vår förväntan på andelen civilisationer på mänsklig nivå som kommer att misslyckas med att uppnå posthumanitet. I vårt fall verkar vi dock inte ha någon anledning att tro att vi är speciella i detta avseende, på gott och ont.

Premiss (1) betyder inte i sig att vi sannolikt kommer att dö ut. Det tyder på att vi sannolikt inte kommer att nå en postmänsklig fas. Denna möjlighet kan till exempel innebära att vi kommer att ligga kvar på eller något över våra nuvarande nivåer under lång tid innan vi utrotas. En annan möjlig orsak till att (1) är sant är att den tekniska civilisationen sannolikt kommer att kollapsa. Samtidigt kommer primitiva mänskliga samhällen att finnas kvar på jorden.

Det finns många sätt på vilka mänskligheten kan dö ut innan den når den post-mänskliga utvecklingsfasen. Den mest naturliga förklaringen till (1) är att vi kommer att dö ut som ett resultat av utvecklingen av någon kraftfull men farlig teknologi. En kandidat är molekylär nanoteknik, vars mogna skede kommer att möjliggöra skapandet av självreplikerande nanorobotar som kan livnära sig på smuts och organiskt material - en sorts mekaniska bakterier. Sådana nanorobotar kan, om de är designade för skadliga syften, leda till att allt liv på planeten dör.

Ett andra alternativ till slutsatsen av simuleringsargumentet är att andelen posthumana civilisationer som är intresserade av att köra förfäderssimuleringar är försumbar. För att (2) ska vara sant måste det finnas strikt konvergens mellan avancerade civilisationers utvecklingsvägar. Om antalet förfadersimuleringar producerade av intresserade civilisationer är exceptionellt stort, måste sällsyntheten hos sådana civilisationer vara motsvarande extrem. Praktiskt taget ingen posthuman civilisation bestämmer sig för att använda sina resurser för att skapa ett stort antal förfäders simuleringar. Dessutom saknar nästan alla posthumana civilisationer individer som har de lämpliga resurserna och intresset för att köra förfäders simuleringar; eller så har de lagar, uppbackade med våld, för att hindra individer från att agera enligt deras önskemål.

Vilken kraft kan leda till en sådan konvergens? Man kan hävda att avancerade civilisationer kollektivt utvecklas längs en bana som leder till erkännandet av det etiska förbudet mot att köra förfäders simuleringar på grund av det lidande som invånarna upplevt i simuleringen. Men ur vårt nuvarande perspektiv verkar det inte självklart att skapandet av människosläktet är omoraliskt. Tvärtom, vi tenderar att uppfatta existensen av vår ras som ett stort etiskt värde. Dessutom räcker det inte med konvergensen av enbart etiska åsikter om det omoraliska i att köra förfäderssimuleringar: det måste kombineras med konvergensen av en civilisations sociala struktur, vilket resulterar i att aktiviteter som anses omoraliska i praktiken förbjuds.

En annan möjlighet för konvergens är att nästan alla individuella postmänniskor i nästan alla posthumana civilisationer utvecklas i en riktning där de tappar driften att köra förfäderssimuleringar. Detta kommer att kräva betydande förändringar i motivationen som driver deras posthumana förfäder, eftersom det säkert finns många människor som skulle vilja köra simuleringar av sina förfäder om de kunde. Men kanske kommer många av våra mänskliga önskningar att verka dumma för alla som blir postmänskliga. Kanske är den vetenskapliga betydelsen av förfäderssimuleringar för posthumana civilisationer försumbar (vilket inte verkar alltför osannolikt med tanke på deras otroliga intellektuella överlägsenhet) och kanske anser postmänniskor att rekreationsaktivitet är ett mycket ineffektivt sätt att få nöje – som kan erhållas mycket billigare p.g.a. direkt stimulering av hjärnans njutningscentra. En slutsats som följer av (2) är att posthumana samhällen kommer att skilja sig mycket från mänskliga samhällen: de kommer inte att ha relativt rika oberoende agenter som har hela skalan av mänskliga önskningar och är fria att agera på dem.

Möjligheten som beskrivs i slutsats (3) är den mest spännande ur en konceptuell synvinkel. Om vi ​​lever i en simulering så är det kosmos vi observerar bara en liten bit i den fysiska existensens helhet. Fysiken i universum där datorn finns kan eller kanske inte liknar fysiken i världen vi observerar. Även om världen vi observerar till viss del är "verklig", är den inte belägen på någon grundläggande nivå av verkligheten. Det kan vara möjligt för simulerade civilisationer att bli posthumana. De kan i sin tur köra förfadersimuleringar på kraftfulla datorer som de har byggt i det simulerade universum. Sådana datorer skulle vara "virtuella maskiner", ett mycket vanligt begrepp inom datavetenskap. (Webbapplikationer skrivna i Java-script körs till exempel på en virtuell maskin - en simulerad dator - på din bärbara dator.)

Virtuella maskiner kan kapslas inuti varandra: det är möjligt att simulera en virtuell maskin som simulerar en annan maskin, och så vidare, med ett godtyckligt stort antal steg. Om vi ​​kan skapa våra egna simuleringar av våra förfäder, skulle detta vara starka bevis mot punkterna (1) och (2), och vi skulle därför behöva dra slutsatsen att vi lever i en simulering. Dessutom måste vi misstänka att postmänniskorna som körde vår simulering själva är simulerade varelser, och deras skapare i sin tur kan också vara simulerade varelser.

Verkligheten kan alltså innehålla flera nivåer. Även om hierarkin skulle sluta på någon nivå - den metafysiska statusen för detta uttalande är ganska oklar - kan det finnas tillräckligt med utrymme för ett stort antal nivåer av verkligheten, och detta antal kan öka med tiden. (Ett övervägande som talar emot en sådan flernivåhypotes är att beräkningskostnaden för basnivåsimulatorer skulle vara mycket stor. Att simulera till och med en enskild posthuman civilisation kan bli oöverkomligt dyrt. Om så är fallet bör vi förvänta oss att vår simulering stängs av , när vi närmar oss den postmänskliga nivån.)

Även om alla element i detta system är naturalistiska, till och med fysiska, är det möjligt att dra några lösa analogier med religiösa uppfattningar om världen. På sätt och vis är postmänniskorna som kör simuleringen som gudar i förhållande till människorna i simuleringen: postmänniskor skapar världen som vi ser; de har intelligens överlägsen oss; de är allsmäktige i den meningen att de kan störa hur vår värld fungerar på sätt som bryter mot fysiska lagar, och de är allvetande i den meningen att de kan övervaka allt som händer. Men alla halvgudar, utom de som lever på verklighetens grundläggande nivå, är föremål för handlingar från mer kraftfulla gudar som lever på högre nivåer av verkligheten.

Ytterligare utarbetande av dessa teman skulle kunna resultera i en naturalistisk teogoni som skulle utforska strukturen i denna hierarki och de begränsningar som åläggs invånarna genom möjligheten att deras handlingar på deras nivå kan påverka attityden hos invånarna på en djupare nivå av verkligheten till dem . Till exempel, om ingen kan vara säker på att han är på den grundläggande nivån, måste alla överväga sannolikheten för att hans handlingar kommer att belönas eller straffas, kanske baserat på några moraliska kriterier, av värdarna för simuleringen. Livet efter döden kommer att vara en verklig möjlighet. På grund av denna grundläggande osäkerhet kommer även en civilisation på grundläggande nivå att ha ett incitament att uppträda etiskt. Det faktum att de har en anledning att bete sig moraliskt kommer naturligtvis att vara ett bra skäl för någon annan att bete sig moraliskt, och så vidare, att bilda en god cirkel. På så sätt kan man få något som liknar ett universellt etiskt imperativ, som ligger i allas egenintresse att följa, och som kommer från "ingenstans".

Förutom förfäderssimuleringar kan man tänka sig möjligheten till mer selektiva simuleringar som bara omfattar en liten grupp människor eller en enda individ. Resten av personerna skulle då vara "zombies" eller "skuggmänniskor" - människor simulerade bara på en nivå som är tillräcklig för att helt simulerade människor inte skulle märka något misstänkt.

Det är inte klart hur mycket billigare det skulle vara att simulera skuggmänniskor än riktiga människor. Det är inte ens självklart att det är möjligt för ett objekt att bete sig oskiljaktigt från en verklig person och ändå inte ha medvetna upplevelser. Även om det finns sådana selektiva simuleringar kan du inte vara säker på att du är med i en förrän du är säker på att sådana simuleringar är mycket fler än kompletta simuleringar. Världen skulle behöva ha omkring 100 miljarder fler I-simuleringar (simuleringar av livet för bara ett medvetande) än det finns fullständiga simuleringar av förfäder – för att majoriteten av simulerade människor ska vara i I-simuleringar.

Det är också möjligt att simulatorer hoppar över vissa delar av de simulerade varelsernas mentala liv och ger dem falska minnen av den typ av upplevelser de skulle ha haft under de överhoppade perioderna. Om så är fallet kan man tänka sig följande (långsökta) lösning på ondskans problem: att det verkligen inte finns något lidande i världen och att alla minnen av lidande är en illusion. Naturligtvis kan denna hypotes övervägas på allvar endast i de ögonblick då du själv inte lider.

Om vi ​​antar att vi lever i en simulering, vilka är konsekvenserna för oss människor? I motsats till vad som har sagts hittills är konsekvenserna för människor inte särskilt drastiska. Vår bästa guide till hur våra posthumana skapare valde att organisera vår värld är en standard empirisk undersökning av universum som vi ser det. Förändringar i det mesta av vårt trossystem kommer sannolikt att vara små och milda – proportionell mot vår brist på förtroende för vår förmåga att förstå det posthumana tankesystemet.

En korrekt förståelse av sanningen i tes (3) bör inte göra oss "tokiga" eller tvinga oss att sluta med vår verksamhet och sluta göra planer och förutsägelser för morgondagen. Den huvudsakliga empiriska betydelsen av (3) tycks för närvarande ligga i dess roll i den trefaldiga slutsatsen ovan.

Vi bör hoppas att (3) är sant eftersom det minskar sannolikheten för (1), men om beräkningsbegränsningar gör det troligt att simulatorer kommer att stänga av simuleringen innan den når post-mänskliga nivåer, så är vårt bästa hopp att (2) är sant. .

Om vi ​​lär oss mer om posthuman motivation och resursbegränsningar, kanske som ett resultat av vår utveckling mot posthumanitet, så kommer hypotesen att vi simuleras att ha en mycket rikare uppsättning empiriska tillämpningar.

7. slutsats

En teknologiskt mogen post-mänsklig civilisation skulle ha enorm datorkraft. Baserat på detta visar resonemang om simulering att minst ett av följande är sant:

  • (1) Andelen civilisationer på mänsklig nivå som når den postmänskliga nivån är mycket nära noll.
  • (2) Andelen postmänskliga civilisationer som är intresserade av att köra simuleringar av föregångare är mycket nära noll.
  • (3) Andelen av alla människor med vår typ av erfarenhet som lever i en simulering är nära en.

Om (1) är sant, kommer vi nästan säkert att dö innan vi når den posthumana nivån.

Om (2) är sant, bör det finnas en strikt koordinerad konvergens av utvecklingsvägarna för alla avancerade civilisationer, så att ingen av dem skulle ha relativt rika individer som skulle vara villiga att köra simuleringar av sina förfäder och skulle vara fria att göra så.

Om (3) är sant, så lever vi nästan säkert i en simulering. Vår okunnighets mörka skog gör det rimligt att fördela vårt förtroende nästan jämnt mellan punkterna (1), (2) och (3).

Om vi ​​inte redan lever i en simulering kommer våra ättlingar nästan säkert aldrig att köra sina förfadersimuleringar.

Kvitteringar

Jag är tacksam mot många människor för deras kommentarer, särskilt Amara Angelica, Robert Bradbury, Milan Cirkovic, Robin Hanson, Hal Finney, Robert A. Freitas Jr., John Leslie, Mitch Porter, Keith DeRose, Mike Treder, Mark Walker, Eliezer Yudkowsky , och anonyma domare.

Översättning: Alexey Turchin

Översättarens anteckningar:
1) Slutsatserna (1) och (2) är icke-lokala. De säger att antingen går alla civilisationer under, eller så vill alla inte skapa simuleringar. Detta uttalande gäller inte bara för hela det synliga universum, inte bara för hela universums oändlighet bortom synlighetshorisonten, utan också för hela uppsättningen av 10**500 graders universum med olika egenskaper som är möjliga, enligt strängteorin . Däremot är tesen att vi lever i en simulering lokal. Allmänna påståenden är mycket mindre sannolikt än specifika påståenden. (Jämför: "Alla människor är blonda" och "Ivanov är blond" eller "alla planeter har en atmosfär" och "Venus har en atmosfär.") För att motbevisa ett allmänt påstående räcker det med ett undantag. Påståendet att vi lever i en simulering är alltså mycket mer sannolikt än de två första alternativen.

2) Utveckling av datorer är inte nödvändigt - det räcker till exempel med drömmar. Som kommer att se genetiskt modifierade och specialanpassade hjärnor.

3) Simuleringsresonemang fungerar i vardagen. De flesta bilder som kommer in i våra hjärnor är simuleringar – det här är filmer, TV, internet, fotografier, reklam – och sist men inte minst – drömmar.

4) Ju ovanligare föremål vi ser, desto mer sannolikt är det att det är med i simuleringen. Till exempel, om jag ser en fruktansvärd olycka, så ser jag den troligen i en dröm, på TV eller i en film.

5) Simuleringar kan vara av två typer: simulering av hela civilisationen och simulering av personlig historia eller till och med en enda episod från en persons liv.

6) Det är viktigt att skilja simulering från imitation - det är möjligt att simulera en person eller civilisation som aldrig funnits i naturen.

7) Supercivilisationer bör vara intresserade av att skapa simuleringar för att studera olika versioner av sitt förflutna och därmed olika alternativ för deras utveckling. Och även, till exempel, att studera medelfrekvensen för andra supercivilisationer i rymden och deras förväntade egenskaper.

8) Problemet med simulering står inför problemet med filosofiska zombies (det vill säga varelser som saknar qualia, som skuggor på en TV-skärm). Simulerade varelser bör inte vara filosofiska zombies. Om de flesta simuleringar innehåller filosofiska zombies, fungerar inte resonemanget (eftersom jag inte är en filosofisk zombie.)

9) Om det finns flera nivåer av simulering kan samma nivå 2-simulering användas i flera olika nivå 1-simuleringar av de som bor i nivå 0-simuleringen. För att spara datorresurser. Det är som att många olika människor ser samma film. Det vill säga, låt oss säga att jag skapade tre simuleringar. Och var och en av dem skapade 1000 subsimuleringar. Då skulle jag behöva köra 3003 simuleringar på min superdator. Men om simuleringarna skapade i huvudsak identiska subsimuleringar, behöver jag bara simulera 1000 simuleringar och presentera resultatet av var och en av dem tre gånger. Det vill säga, jag kommer att köra 1003 simuleringar totalt. En simulering kan med andra ord ha flera ägare.

10) Om du lever i en simulering eller inte kan avgöras av hur mycket ditt liv skiljer sig från genomsnittet i riktning mot unikt, intressant eller viktigt. Förslaget här är att att göra simuleringar av intressanta människor som lever i intressanta tider av viktiga förändringar är mer attraktivt för skaparna av simuleringen, oavsett deras syfte - underhållning eller forskning. 70 % av människorna som någonsin har levt på jorden var analfabeter bönder . Däremot måste effekten av observationsselektion beaktas här: analfabeter kunde inte ifrågasätta om de var med i simuleringen eller inte, och därför bevisar inte det faktum att du inte är en analfabet bonde att du är med i simuleringen. Förmodligen kommer eran i Singularity-regionen att vara av störst intresse för simuleringsförfattarna, eftersom en irreversibel fördelning av civilisationens utvecklingsvägar är möjlig i dess region, vilket kan påverkas av små faktorer, inklusive egenskaperna hos en person. Till exempel tror jag, Alexey Turchin, att mitt liv är så intressant att det är mer sannolikt att det är simulerat än verkligt.

11) Det faktum att vi befinner oss i en simulering ökar våra risker - a) simuleringen kan stängas av b) författarna till simuleringen kan experimentera på den, vilket skapar uppenbart osannolika situationer - ett asteroidfall osv.

12) Det är viktigt att notera att Bostrom säger att åtminstone en av de tre är sann. Det vill säga situationer är möjliga när några av punkterna är sanna samtidigt. Till exempel, det faktum att vi kommer att dö utesluter inte det faktum att vi lever i en simulering, och det faktum att de flesta civilisationer inte skapar en simulering.

13) Simulerade människor och världen runt dem kanske inte liknar några riktiga människor eller den verkliga världen alls, det är viktigt att de tror att de är i den verkliga världen. De kan inte märka skillnaderna eftersom de aldrig har sett någon verklig värld alls. Eller så är deras förmåga att märka skillnader dämpad. Som det händer i en dröm.

14) Det finns en frestelse att upptäcka tecken på simulering i vår värld, manifesterad som mirakel. Men mirakel kan hända utan simulering.

15) Det finns en modell av världsordningen som tar bort det föreslagna dilemmat. (men inte utan dess motsägelser). Detta är nämligen den Castanevo-buddhistiska modellen, där betraktaren föder hela världen.

16) Idén om simulering innebär förenkling. Om simuleringen är korrekt för atomen, kommer det att vara samma verklighet. I den meningen kan man föreställa sig en situation där en viss civilisation har lärt sig att skapa parallella världar med givna egenskaper. I dessa världar kan hon utföra naturliga experiment och skapa olika civilisationer. Det vill säga, det är ungefär som rymdzoohypotesen. Dessa skapade världar kommer inte att vara simuleringar, eftersom de kommer att vara väldigt verkliga, men de kommer att vara under kontroll av dem som skapade dem och kan slå på och av dem. Och det kommer att bli fler av dem också, så liknande statistiska resonemang gäller här som i simuleringsresonemanget.
Kapitel ur artikeln "UFOs as a global risk factor":

UFO är fel i matrisen

Enligt N. Bostrom (Nick Bostrom. Proof of Simulation. www.proza.ru/2009/03/09/639), är sannolikheten att vi lever i en helt simulerad värld ganska hög. Det vill säga vår värld kan simuleras fullständigt på en dator av någon form av supercivilisation. Detta gör att författarna till simuleringen kan skapa vilka bilder som helst i den, med mål som är obegripliga för oss. Dessutom, om kontrollnivån i simuleringen är låg, kommer fel att ackumuleras i den, som när du kör en dator, och fel och fel kommer att uppstå som kan märkas. Männen i svart förvandlas till Agent Smiths, som raderar spår av fel. Eller så kan vissa invånare i simuleringen få tillgång till odokumenterade funktioner. Denna förklaring tillåter oss att förklara alla möjliga mirakel, men den förklarar inte något specifikt - varför vi ser sådana manifestationer och inte, säg, rosa elefanter som flyger upp och ner. Den största risken är att simuleringen kan användas för att testa extrema driftsförhållanden, det vill säga i katastrofala lägen, och att simuleringen helt enkelt kommer att stängas av om den blir för komplex eller fullbordar sin funktion.
Huvudfrågan här är graden av kontroll i matrisen. Om vi ​​pratar om Matrix under mycket strikt kontroll, är sannolikheten för oplanerade fel i den liten. Om Matrix helt enkelt startas och sedan lämnas till sina egna enheter, kommer fel i den att ackumuleras, precis som fel ackumuleras under driften av ett operativsystem, när det fungerar och när nya program läggs till.

Det första alternativet implementeras om författarna till matrisen är intresserade av alla detaljer om händelserna som inträffar i matrisen. I det här fallet kommer de att strikt övervaka alla fel och noggrant radera dem. Om de bara är intresserade av det slutliga resultatet av matrisen eller en av dess aspekter, kommer deras kontroll att vara mindre strikt. Till exempel, när en person kör ett schackprogram och går för dagen, är han bara intresserad av resultatet av programmet, men inte av detaljerna. Dessutom, under driften av ett schackprogram, kan det beräkna många virtuella spel, med andra ord virtuella världar. Med andra ord, författarna här är intresserade av det statistiska resultatet av arbetet med väldigt många simuleringar, och de bryr sig om detaljerna i arbetet med en simulering endast i den utsträckning som fel inte påverkar det slutliga resultatet. Och i vilket komplext informationssystem som helst ackumuleras ett visst antal fel, och när komplexiteten i systemet växer, växer svårigheten att ta bort dem exponentiellt. Därför är det lättare att stå ut med förekomsten av vissa fel än att ta bort dem vid roten.

Vidare är det uppenbart att uppsättningen av löst kontrollerade system är mycket större än uppsättningen av hårt kontrollerade, eftersom svagt kontrollerade system lanseras i stora kvantiteter när de kan produceras MYCKET billigt. Till exempel är antalet virtuella schackspel mycket större än spel från riktiga stormästare, och antalet hemmaoperativsystem är mycket större än antalet statliga superdatorer.
Således är fel i matrisen acceptabla så länge de inte påverkar systemets övergripande funktion. Det är samma i verkligheten, om mitt webbläsarteckensnitt börjar visas i en annan färg, kommer jag inte att starta om hela datorn eller demolera operativsystemet. Men vi ser samma sak i studiet av UFO:n och andra anomala fenomen! Det finns en viss tröskel över vilken varken själva fenomenen eller deras offentliga resonans kan hoppa. Så fort vissa fenomen börjar närma sig denna tröskel försvinner de antingen, eller så dyker det upp människor i svart, eller så visar det sig att det var en bluff, eller så dör någon.

Observera att det finns två typer av simuleringar - fullständiga simuleringar av hela världen och självsimuleringar. I den senare simuleras livserfarenheten för endast en person (eller en liten grupp människor). I en jag-simulering är det mer sannolikt att du befinner dig i en intressant roll, medan i en fullständig simulering är 70 procent av hjältarna bönder. Av observationsselektionsskäl bör I-simuleringar vara mycket vanligare – även om detta övervägande behöver övervägas ytterligare. Men i I-simuleringar borde UFO-temat redan vara nedlagt, som hela världens förhistoria. Och det kan inkluderas med avsikt - för att utforska hur jag kommer att hantera detta ämne.

Vidare, i vilket informationssystem som helst, förr eller senare, dyker det upp virus - det vill säga parasitiska informationsenheter som syftar till självreplikering. Sådana enheter kan uppstå i Matrix (och i det kollektiva omedvetna), och ett inbyggt antivirusprogram måste motverka dem. Men från erfarenheten av att använda datorer och från erfarenheten av biologiska system vet vi att det är lättare att stå ut med förekomsten av ofarliga virus än att förgifta dem till det sista. Dessutom kräver fullständig förstörelse av virus ofta rivning av systemet.

Således kan det antas att UFO är virus som utnyttjar fel i matrisen. Detta förklarar det absurda i deras beteende, eftersom deras intelligens är begränsad, liksom deras parasitism på människor - eftersom varje person tilldelas en viss mängd datorresurser i matrisen som kan användas. Det kan antas att vissa människor utnyttjade brister i matrisen för att uppnå sina mål, inklusive odödlighet, men det gjorde också varelser från andra datormiljöer, till exempel simuleringar av fundamentalt olika världar, som sedan trängde in i vår värld.
En annan fråga är vad är djupnivån på simuleringen vi sannolikt befinner oss i. Det är möjligt att simulera världen med atomär precision, men detta skulle kräva enorma beräkningsresurser. Ett annat extremt exempel är first-person shooter. I den ritas en tredimensionell bild av området efter behov när huvudpersonen närmar sig en ny plats, utifrån områdets översiktsplan och vissa allmänna principer. Eller så används ämnen för vissa ställen, och den exakta ritningen av andra ställen ignoreras (som i filmen "13th Floor"). Uppenbarligen, ju mer exakt och detaljerad simuleringen är, desto mindre ofta kommer den att ha fel. Å andra sidan kommer simuleringar som görs "hastigt" att innehålla mycket fler fel, men samtidigt förbruka oändligt mycket mindre datorresurser. Med andra ord, med samma kostnader skulle det vara möjligt att göra antingen en mycket exakt simulering eller en miljon ungefärliga. Vidare antar vi att samma princip gäller för simuleringar som för andra saker: nämligen att ju billigare en sak är, desto vanligare är den (det vill säga att det finns mer glas än diamanter i världen, fler meteoriter än asteroider, och T. e.) Det är alltså mer sannolikt att vi befinner oss i en billig, förenklad simulering, snarare än i en komplex, ultraprecis simulering. Det kan hävdas att obegränsade datorresurser i framtiden kommer att finnas tillgängliga, och därför kommer vilken aktör som helst att köra ganska detaljerade simuleringar. Men det är här effekten av matryoshka-simuleringar kommer in i bilden. En avancerad simulering kan nämligen skapa sina egna simuleringar, låt oss kalla dem simuleringar på andra nivån. Låt oss säga att en avancerad simulering av mitten av 21-talets värld (skapad, låt oss säga, i det verkliga 23-talet) kan skapa miljarder simuleringar av det tidiga 21-talets värld. Samtidigt kommer hon att använda datorer från mitten av 21-talet, som kommer att vara mer begränsade i beräkningsresurser än datorer från 23-talet. (Och även det verkliga 23-talet kommer att spara på subsimuleringarnas noggrannhet, eftersom de inte är viktiga för det.) Därför kommer alla miljarder simuleringar från det tidiga 21-talet som det kommer att skapa att vara mycket ekonomiska när det gäller datorresurser. På grund av detta kommer antalet primitiva simuleringar, såväl som simuleringar tidigare i termer av tiden som simuleras, att vara en miljard gånger större än antalet mer detaljerade och senare simuleringar, och därför har en godtycklig observatör en miljard gånger större chans att hitta sig själv i en tidigare (åtminstone fram till tillkomsten av superdatorer som kan skapa sina egna simuleringar) och billigare och mer glitchy simulering. Och enligt principen om självprovsantagande måste alla betrakta sig själv som en slumpmässig representant för många varelser som liknar honom själv om han vill få de mest exakta sannolikhetsuppskattningarna.

En annan möjlighet är att UFO:n medvetet lanseras in i matrisen för att lura människorna som bor i den och se hur de kommer att reagera på den. Eftersom de flesta simuleringar, tror jag, är designade för att simulera världen under några speciella, extrema förhållanden.

Ändå förklarar denna hypotes inte hela mängden specifika manifestationer av UFO:n.
Risken här är att om vår simulering blir överbelastad med fel, kan simuleringsägarna besluta att starta om den.

Slutligen kan vi anta den "spontana genereringen av matrisen" - det vill säga att vi lever i en datormiljö, men denna miljö skapades spontant på något sätt vid ursprunget till universums existens utan förmedling av några skapande varelser. . För att denna hypotes ska vara mer övertygande bör vi först komma ihåg att enligt en av beskrivningarna av den fysiska verkligheten är själva elementarpartiklarna cellulära automater - ungefär som stabila kombinationer i livets spel. ru.wikipedia.org/wiki/Life_(ett spel)

Fler verk av Alexey Turchin:

Om Ontol

Nick Bostrom: Are We Living in a Computer Simulation (2001)Ontol är en karta som låter dig välja den mest effektiva vägen för att forma din världsbild.

Ontol bygger på en överlagring av subjektiva bedömningar, reflektion av lästa texter (helst miljoner/miljarder människor). Varje person som deltar i projektet bestämmer själv vad som är de 10/100 viktigaste sakerna han har läst/sett på i viktiga aspekter av livet (tänkande, hälsa, familj, pengar, förtroende, etc.) under de senaste 10 åren eller hans Hela livet . Vad kan delas med ett klick (texter och videor, inte böcker, konversationer och evenemang).

Det ideala slutresultatet av Ontol är tillgång 10x-100x snabbare (än befintliga analoger av wikipedia, quora, chattar, kanaler, LJ, sökmotorer) till betydande texter och videor som kommer att påverka läsarens liv ("Åh, vad jag önskar jag jag läst den här texten förut! Troligtvis hade livet blivit annorlunda"). Gratis för alla invånare på planeten och med 1 klick.

Källa: will.com

Lägg en kommentar