Tegnologiese singulariteit: Verskil tussen weergawes

Content deleted Content added
JMK (besprekings | bydraes)
tekssorg
Lyn 1:
Die '''tegnologiese singulariteit''' (ook eenvoudig '''die singulariteit''') is 'n [[hipotese]] waarvolgens die ontdekking van kunsmatige hiperintelligensie 'n onmiddelikeonmiddellike eksponensiële tegnologiese ontwikkeling tot gevolg sal hê, wat ongekende en fundamentele veranderings in die menslike beskawing teweeg sal bring. Volgens hierdie hipotese sal 'n opgradeerbare intelligente- agent (soos 'n rekenaar wat deur [[sagteware]] -gebaseerde algemene kunsmatige intelligensie in werking gestel is) 'n wegholreaksie ontketen van 'n kringloop selfverbeterings waarvolgens elke nuwe en meer intelligente generasie alvinniger hoeas vinnigerdie beginvorige sal werk. Dit lei dan tot 'n intelligensie -ontploffing en skep 'n magtige superintelligensie wat kwalitatief by verre alle menslike intelligensie verbygaansal oortref. John von Neumann iswas in die 1950s die eerste om die term "singulariteit" te gebruik in die konteks van [[tegnologie]] gedurende die 1950s. Hy verwys na tegnologiese vordering wat versnelde verandering veroorsaak:
 
"Die“Een van ons gesprekke het gewentel om die immer versnellende vordering van tegnologie en die veranderinge in die manier van die menslike bestaanbestaanswyse, geewat 'n indruk vannaamlik die naderkomindruk vanskep dat 'n essensielesekere onafwendbare singulariteit in die geskiedenis van die reisiesmenseras verby(of: menslikeresies) genader word, waarna sakemensesake, soos ons dit tans ken, kan nie voortgaankan nie”voortbestaan nie.”
Die tegnologiese singulariteit is ook 'n transhumanistiese begrip. Baie transhumaniste ervaar dit vanuit die [[Moore se wet]] (wat 'n verdubbeling in proseseeringskapasiteitprosesseringskapasiteit voorspel binne 'n gegewe tydperiode) wat ook van toepassing gemaak word op die tempo van wetenskaplike en tegnologiese ontwikkeling.
 
Daaropvolgende skrywers het ook die sieninge verder uitgebou. I. J. Good se "intelligensie -ontploffing", voorspel dat 'n toekomstige superintelligensie 'n singulariteit sal laat ontstaan. Amerikaanse wiskundige en wetenskapfiksie -skrywer Vernor Vinge stel in sy [[1993]] essay, ''The Coming Technological Singularity'', dat 'n singulariteit die einde van die menslike era kan beteken, aangesien die nuwe superintelligensie sal voortgaan om ditself op te gradeer en tegnologie ook teen 'n onverstaanbare vinnige tempo sal laat vooruitgaan.
Gedurende die [[2012]] Singularity Summit, het Stuart Armstrong in 'n studie van kunsmatige algemene intelligensie voorspellings van kenners onderneem en die gemiddelde voorspelling vir die intree van die singulariteit as [[2040]] geidentifiseergeïdentifiseer.
 
==Inleiding==
Onder die moontlike eksponensiële verandering tot 'n singulariteit word verstaan:
 
• 'n Tyd in die toekoms waar die tegnologiese vooruitgang so vinnig voort gaanis dat mense met hul bestaande intelligensie die gevolglike samelewing nie meer kan begryp nie.
 
• Die tydstip waarop alle eksponensiële tendense wat sedert die ontstaan van die lewe begin het, almal saam komsaamkom en 'deur die plafon gaan'.
 
• Die tydstip waarop die eerste kunstmatigekunsmatige intelligensies of postmense (verbeterde mense met 'n hoër intelligensie) hul verdere ontwikkeling in eie hand neem en hullselfhulself so vinnig gaan 'verbeter' dat die die impak so diepgaande gaan wees dat die mens ingrypend en onomkeerbaar getransformeer gaan word.
 
In [[toekomsstudies]] is 'n tegnologiese singulariteit 'n toekomstige breekpunt wanneer die tegnologiese vooruitgang so vinnig gaan dat mense met hul teenwoordige intelligensie die gevolglike samelewing nie meer kan begryp nie. Die verandering sou aan die gang gesit word deur die eerste kunstmatigekunsmatige intelligensies of postmense wat hulself teen 'n hoë tempo bly verbeter (steeds intelligenteremeer intelligente kunsmatige intelligensie). Hierdie singulariteit is genoembenoem na analogie metvan die astronomiese punt in die ruimte-tyd waar die natuurwette hul geldigheid verloorafstaan (soos volgens die huidige mees aanvaarde teorie betreffende die oorsprong van die [[heelal]]: die [[Oerknaloerknal]], of die sentrum van 'n [[swartkolk]]).
 
Dergelike veranderinge word in die jare sestig van die 20st20ste eeu bespreek deur I.J. Good, maar die term singulariteit as beskrywing van tegniese vooruitgang word reeds in die 50er -jare deur John von Neumann gebruik. Die singulariteit word vir die eerste keer uitvoerig beskryf deur die Amerikaanse wiskundige en wetenskapfiksie -skrywer Vernor Vinge in 1993 in sy essay ''Singularity''. Mense debateer nog steeds oor of hierdie singulariteit werklik gaan gebeur, en wanneer (die middel 21ste eeu?).
 
Sommige outeurs, soos Raymond KursweilKurzweil, het teoriëteorieë ontwikkel waarin Moore se wet breerbreër geïnterpreteer word. Moore praat slegs oor die [[ewolusie]] van transistors vanaf die jare sestig, KursweilKurzweil begin sy dubbel -eksponensiële kurwe reeds teen die begin van die 20ste eeu by die ponskaartmasjiene. Hy suggereer 'n eksponensiële patroon in die vooruitgang van tegnologie in die loop van die menslike [[geskiedenis]] en selfs van voor die begin van die lewe op [[aarde]]. Die hele ewolusie vanafsedert die oerknal tot nou kan volgens hom gesien word as 'n eksponensiële groei van intelligensie, voortgesit in kunstmatigekunsmatige intelligensie. Volgens KursweilKurzweil kulmineer die patroon in ongebreidelde tegnologiese vooruitgang gedurende die 21ste eeu en lei dan ten slotte tot die singulariteit (die tegnologiese vooruitgang gaanvorder dan baie vinnig in die tyd na die oneindigheid).
 
===Voorwaardes vir 'n tegnologiese singulariteit===
Vir 'n singulariteit om te kan plaasvind word essensiële voorwaardes benodig, naamlik dat:
 
• dit vir die mensdom op 'n gegewe tydstip moontlik moet wees om aanrelatief dietot menslike intelligensie ten minsteminstens 'n gelykwaardige kunstmatigekunsmatige intelligensie te skep, of
 
• dit moontlik moet wees om 'n normaal menslike [[brein]] sodanig op te gradeer dat die gevolglike resultaat die teenwoordigtans bestaande menslike brein in intelligensie oortref.
 
Hieroor isbly die menings van onderander ondersoekers egter steeds verdeeld.
 
==Oorsprong van die konsep tegnologiese singulariteit==
Die konsep van 'n tegnologiese singulariteit het reeds in die laat 1950s ontstaan. Stanislaw Ulam het in [[Mei]] [[1958]], verwysend na 'n gesprek met die wiskundige John von Neumann die volgende gestel:
 
"Eén van die gesprekke wordis toegespits op die steeds versnellende vooruitgang van die tegnologie en veranderings in die aard van diemense menslikese lewelewenswyse, wat lyksou naaandui die nader kom vandat 'n bepaaldesekere essensiëleonafwendbare singulariteit in die geskiedenis van ons rasmenseras (of resies) genader word, waarby verbywelke diepunt ons menslike beslommeringsdoen en late, soos ons dit tans ken, nie kan voortgaanvoortbestaan nie."
Die aanhaling word dikwels uit konteks gehaal en toegeskryf aan John von Neumann self. In [[1965]] beskryf die statikus I.J. Good 'n konsep wat nog meer lyk soos ons hedendaags singulariteitsbegrip omdat hy ook die aspek van bo-menslike intelligensie insluit:
 
Die aanhaling word dikwels uit konteks gehaal en toegeskryf aan John von Neumann self. In [[1965]] beskryf die statikus I.J. Good 'n konsep wat nog meer lyk soos ons hedendaagshedendaagse singulariteitsbegrip omdat hy ook die aspek van bo-menslike intelligensie insluit:
"Laat ons 'n ultra-intelligente masjien definieer as 'n masjien wat baie meer intelligent is as alle intelligente aktiwiteite van enige mens, hoe slim ook al. Aangesien die ontwerp van masjien één van die intelligente aktiwiteite is, sou 'n ultra-intelligente masjien 'n veel beter masjien kan ontwerp; daar sou dan ongetwyfeld 'n ontploffing van intelligensie ontstaan, wat die intelligensie van die mens ver agter sou laat. Die eerste ultra-intelligente masjien sou dus die laatste uitvinding wees wat die mens nodig sou hê."
 
"Laat ons 'n ultra-intelligente masjien definieer as 'n masjien wat baie meer intelligent is as alle intelligente aktiwiteite van enige mens, hoe slim ook al. Aangesien die ontwerp van dié masjien één van die intelligente aktiwiteite is, sou 'n ultra-intelligente masjien 'n veel beter masjien kan ontwerp; daar sou dan ongetwyfeld 'n ontploffing van intelligensie ontstaan, wat die intelligensie van die mens ver agter sou laat. Die eerste ultra-intelligente masjien sou dus die laatstelaaste uitvinding wees wat op die mens nodig sousal staatmaak."
 
==Die singulariteit van Vernor Vinge==
Lyn 55:
Vinge skryf dat bomenslike intelligensie, of dit nou geskep word deur kubernetiese verbetering van die menslike brein (''Intelligence Amplification IA'') of deur [[kunsmatige intelligensie]] (''Artificial Intelligence AI''), beter in staat sal wees om hul eie intelligensie te vermeerder as die mense wat hulle maak. Vinge skryf:
"Wanneer bomenslike intelligensie die vooruitgang bepaal dan, sal die vooruitgang vinniger verloop."
 
Van hierdie terugvoerkringloop van selfverbetering van intelligensie word verwag dat dit steeds meer tegnologiese vooruitgang bring in 'n steeds korter tydperk. Vir hedendaagse mense sal hierdie nuwe tegnologie en die daarmee gevormde wêreld en gemeenskap vinnig onbegryplik word. In sy roman ''A Fire Upon the Deep'' ([[1992]]) verwys Vinge hierna. Die helde van die verhaal, wat in die verre toekoms afspeel, kry te maak met baie ver ontwikkelde 'masjiene' wat baie kenmerke van die lewe het. So het hierdie ' masjiene' die uiterlike van 'plantaardige groeisels' wat op molekulêre vlak werk, soos in lewende wesens wat op sellulêre vlak ook as 'n besonderse komplekse molekulêre masjien beskou kan word. Ook 'groei' hierdie' masjiene, as dit nodig is, vanuit 'n saadagtige begin tot grooter eenhede. Hierdie masjiene maak gebruik van atome en molekules uit hul omgewing vir hulle groei en onderhoud en die benodigde energie vir normale gebruik bekom hulle uit [[sonkrag]]. Maar as die nodig is haal hulle op 'n onbekende manier energie uit die struktuur van die ruimte-tyd self maar dan op so 'n groot skaal dat as newe effek die [[son]] selfs byna uitdoof word deur die enorme hoeveelheid [[energie]] wat, hulle op 'n onbegryplike manier, daarvandaan onttrek word.
 
==Raymond KursweilKurzweil se wet van versnellende opbrengste==
In sy [[essay]] uit [[2001]], 'die wet van die versnellende opbrengste' stel Raymond KursweilKurzweil 'n veralgemening van Moore se wet voor. Die wet van Moore vorm vir die meeste aanhangers van die singulariteitshipotese die basis van hul geloof in die singulariteit en beskryf 'n eksponensiële groeipatroon in die kompleksiteit van geïntegreerde [[halfgeleier]] stroombane. KursweilKurzweil brei dit uit en sluit tegnologiëtegnologieë van ver voor die ontwikkeling van geïntegreerde skakeling in tot toekomstige vorme van verwerking. Hy beweer dat 'n nuwe tegnologie op die voorgrond kom telkens as daar 'n hindernis opduik. So sal [[nanotegnologie]] volgens hom die wet van Moore staande hou as die huidige produsiemetodes van mikroskyfies 'n plafon bereik. Hy voorspel dat dergelike paradigmaverskuiwings steeds meer dikwels sal voorkom naarmate ons die singulariteit nader. Hy glo dat die eksponensiële groei van Moore se wet sal deurlopend verby die gebruik van geïntegreerde stroombane beweeg na tegnologiëtegnologieë wat vir ons tans nog onbekend is, of wat ons selfs nog nie kan voorstel nie, wat sal lei tot die singulariteit. Dit beskryf hy as 'tegnologiese verandering so vinnig en grondig dat dit dié breekpunt in die menslike geskiedenis aandui'. Baie toekomskundiges gebruik nog steeds die term Moore se wet om ook die idees van KursweilKurzweil te beskryf. Soos Ray KursweilKurzweil in sy boek ''KursweilKurzweil on the edge - The intelligent universe'' ([[2002]]) dit stel:
"'n Analise van die geskiedenis van die tegnologie toon dat tegnologiese verandering eksponensieel is, in teenstelling met die gebruiklike intuïtiewe linêre visie. Ons sal dus geen 100 jaar van verandering ervaar gedurende die 21ste eeu nie - dit sal dus eerder 20 000 wees (gemeet aan ons huidige denke oor verandering). Die 'opbrengste' soos skyfiespoed en kosteffektiwiteit vermeerder ook eksponensieel. Daar is selfs eksponensiële groei in die eksponensiële groei (dubbel eksponensiële groei,S-kurwe). Binne enkele dekades sal masjien-intelligensie menslike intelligensie oortref en lei tot die singulariteit - tegnologiese veranderinge wat so vinnig en allesomvattend sal wees dat daar sprake is van 'n breekpunt in die menslike geskiedenis. Die gevolge sal onder andere inhou: die samesmelting van biologiese en nie-biologiese intelligensie, onsterflike op sagteware gebaseerde menslike wesens en ultrahoë vlakke van intelligensie wat hulself in die heelal versprei teen die snelheid van die lig."
 
KursweilKurzweil verduidelik hierdie temas verder in sy boeke soos ''The age of spiritual machines'' ([[2000]]) en ''The singularity is near'' ([[2005]]) Sy voorspellings verskil van die van Vinge in soverre dat KursweilKurzweil 'n veel geleideliker oorgang na die singulariteit vir die totale mensdom voorsien terwyl Vinge vinnige self verbeterendeselfverbeterende, bomenslike intelligensie vooropstel. DiéHierdie verskil word dikwels onderskei as die "sagte singulariteit" en die "harde singulariteit".
 
==Evolusie van die samelewing==
Sommiges beskou die singulariteit as 'n logiese gevolg van die [[evolusie]] van die [[samelewing]]. Baie sosioloë en antropoloë het sosiale teoriëteorieë gekonstrueer wat sosiale en kulturele evolusieewolusie evalueer. Sommiges, soos Lewis H. Morgan, Leslie White en Gerard Lenski beskou tegnologiese vooruitgang as die primêre dryfveer van die self ontwikkelendeselfontwikkelende menslike [[beskawing]].
 
Morgan stel drie groot fases voorop vir sosiale evolusieewolusie (''savagery'', ''barbarism'' en ''civilisation''). Die fases word onderskei aan die hand van tegnologiese mylpale soos
 
• [[vuur]], die boog en keramiek in die 'wilde' fase.
• Makmaking van diere, [[landbou]] en metaalverwerking in die 'barbaarse' fase.
• Ten slotte die [[alfabet]] en die skrif in die 'beskaafde' fase.
 
In plaas van spesifieke uitvindings neem White [[energie]] as maatstaf om die evolusieewolusie van beskawings te bepaal. Vir White is die verkryging en beheer van energie die vernaamste funksie van kultuur. White onderskei vyf fases in die ontwikkeling van die menslike beskawing;
 
• in die eerste fase gebruik die mense energie afkomstig van hul eie [[spier]]e.
Lyn 82:
• In die vyfde en laatste fase maak mense gebruik van [[kernenergie]].
 
White skep die formule P=E*T, waarvolgens E 'n maatstaf is van die energie gebruik per capita per jaar, T is 'n maatstaf vir die effektiwiteit van die gebruik van die energie en P verteenwoordig die mate waartoe kulturele ontwikkeling plaasvind in terme van die produkvervaardigde vervaardigproduk. In sy eie woorde: "kultuur ontwikkel as die hoeveelheid opgewekte energie per capita per jaar vermeerder, of as die effiktiwiteiteffektiwiteit van die instrumentele middele om energie aan te wend vermeerdertoeneem."
 
Die Russiese astronoom Nikolaj Kardasjev ondersoek hierdie teorie en stel die Kardasjevskaal op, wat die energieverbruik van ontwikkelde beskawings kategoriseer. In sy grondvorm het die skaal drie kategorië, waarin beskawings op die basis van hul energieprodusie ingedeeldingedeel word:
 
Tipe I
 
Die beskawing is in staat om al die planeet se beskikbare energie te gebruik.
 
Tipe II
Lyn 96:
Tipe III
 
Die beskawing is in staat om die totaaltotale beskikbare energie in 'n melkwegstelsel te gebruik.
 
Die menslike beskawing bevind homself nog erens onder Tipe I, aangesien ons slegs weet om 'n deel van die beskikbare energie op die Aarde te gebruik. Hierdie status is nie-amptelik "Tipe 0". 'n Dysonsfeer is tipe II op hierdie skaal en die mensdom is op die oomblik ongeveer op vlak 0,7.
 
Gerhard Lenski gebruik 'n moderne benadering en fokus op informasie. Hoe meer informasie en kennis (veral as dit ons toelaat om die natuurlike omgewing te manipuleer) 'n bepaalde samelewing het, hoe meer ontwikkeld is dit. Hy identifiseer vier fases in die ontwikkeling van beskawing, gebaseerd op mylpale in die geskiedenis van die kommunikasie.
 
• In die eerste fase word informasieinligting deurgegee via die gene.
• In die tweede, wanneer die mensheid sintuiglike bewussyn ontwikkel, kan hy/sy leer en informasieinligting deurgee via ervaring.
• In die derde fase begin die mense tekens te gebruik en ontwikkel die [[logika]].
• In die vierde fase word [[simbole]] geskep en ontwikkel [[taal]] en skrif.
 
Lyn 115:
5. spesiale samelewings (soos vissersgemeenskappe).
 
Ten slotte is daar die sosioloë en antropoloë soos [[Alvin Toffler]] (outeur van ''Future Shock''), Daniel Bell en John Nashbitt wie teorieë oor die post-industriële samelewings ontwikkel het. Hulle argumenteer dat die huidige tydperk van die industriële samelewing sy einde nader en dat dienste en informasie belangriker geword het as industrie en goedere. Sommige meer ektreme visies van post-industriële samelewings, veral in fiksie lyk baie soos post-singulariteit samelewings.
 
==Moontlike gevare van die singulariteit==
Lyn 126:
 
===Gevaarlike tegnologie===
Sommige mense beweer dat die ontwikkelde tegnologiëtegnologieë gewoon te gevaarlik is vir die mens, sodat dit moreel gesien, verbied behoort te word. Daar word veral gevrees vir 'n uiteindelike toekomstige tegnologiese [[distopie]]. Baie andere, soos die neo-Luddiete, is teen die singulariteit gekant maar nie teen moderne tegnologie as sodanig nie, soos die neo-Luddiete. Gevaarlike tegnologie waarna dikwels verwys word is molukelêre [[nanotegnologie]] en [[genetiese manipulasie]]. In 'n vergevorderde stadium kan hierdie tegnologiëtegnologieë moontlik deur 'n superintelligensie aangewend word wat 'n wesentlike gevaar vir die mensdom inhou. Hierdie bedreiging is 'n belangrike aangeleentheid, sowel vir singulariteitsvoorstanders as vir singulariteitskritici, en was die onderwerp van 'n artikel deur Bill Joy gepubliseer in ''Wired'' tydskrif, getiteld ''Why the future doesn't need us''. [[Oxford Universiteit]] filosoof Nick Bostrom evalueer ook die gevare van die singulariteit vir die oorlewering van die mensdom in sy [[essay]] ''Existential risks''.
Baie ondersteuners van die singulariteit beskou nanotegnologie as van die belangrikste eksitensiëleeksistensiële risikos vir die mensdom. Daarom glo die meeste dat nanotegnologie voorafgegaan sou moet voorafgegaan word deur 'n Saad-KI ('n soort basis van kunsmagtige intelligensie) en dat 'n pre-singulariteit gemeenskap dus geen nanotegnologie sou mag besit nie. Ander, soos die Foresight Institute, stimuleer juis inisiatiewe om molekulêre nanotegnologie te skep, omdat hulle glo dat nanotegnologie ook veilig gemaak kan word vir pre-singulariteit gebruik of selfs dat nanotegnologie die koms van 'n gunstige singulariteit kan versnel.
 
===Intelligensie en morele waardes===
Sommige denkers vermoed dat hiper-intelligensie waarskynlik ander prioriteite as die mensdom sou stel., Omdat per definisieen 'gewone' intelligente mense diesal superintelligensiesper definisie nie meer die superintelligensies kan volgewenaar nie. Voorts sal die intelligensie van superintelligensies ook nog steeds vinniger intelligent wordaanwas, wat aan hierdie entiteite die vermoë geesal verskaf om alle moontlike teenstand te voorsien, en by voorbaat uit te skakel. Hoewel sommiges argumenteer dat met hoë intelligensie ook 'outomaties' met hoë morele waardes saamgaansou gepaardgaan, is daar andere wat diesodanige verband ontken. Hulle wys op die [[Nazi]]s wiewat hulself in die praktyk weens hul rasistiese en [[Totalitarisme|totalitêre]] ideologie nie laat lei het deur enige morele beginsels nie. Baie hoogintelligente mense soos geleerdes, dokters en ingenieurs het vrywillig hul medewerking aan die regime gegee, veral in die jare dertig en die begin van die [[Tweede Wêreldoorlog]] toe die stelsel nog suksesvol gelyk het. Blykbaar het hierdie, tog as bogemiddeldebogemiddeld intelligente mense, geen morele besware teen die Nazis en hulle ideologie gehad nie. KI-navorser Hugo de Garis veronderstel daarom, verwysend na onder andere hiediehierdie historiese voorbeeld, dat bomenslike intelligensies die mensdom bloot gaan elimineer en dat die mensdom dit nie kan stop nie.
 
Voorstanders van 'Vriendelike kunsmatige intelligensie' sien ook in dat die singulariteit wel 'n groot gevaar vir die mensdom sou kon inhou, en juis om hierdie rede steun hulle pogings om die singulariteit veiliger te maak deur KI te skep wat welwillend teenoor die mens sal wees. Hierdie idee is ook vervat in die 'drie wette van die robotika' van [[Isaac Asimov]], wat daarop afgestem is om 'n kunsmatige intelligente robot te verhinder, en terselfdetyd nie mense kwaad aan te doen nie. Dit ten spyte daarvan dat in baie storielyne van Asimov se verhale fokus op die mislukking van sy wette. 'n Instituut in die [[VSA]] wat hulself besig hou met die veiliger maak van 'n moontlike KI is die Machine Intelligence Research Institute (MIRI) gestig deur singulariteitsondersteuner Elieser Yudkowski en gesteun deur onder andere Ray KursweilKurzweil.
 
===Massale werkloosheid===
Die oorspronklike Luddiete beywer hulleself teen die gebruik van [[masjien]]ewas gedurende die eerste [[Industriële Revolusie|Industriële Rewolusie]] ([[Engeland]] vanaf [[1750]]) gekant teen die gebruik van [[masjien]]e uit vrees dat [[werk]] dramaties sou afneem. Sommige teenstanders van die singulariteit beweer dat dieselfde gaan gebeur na 'n singulariteit. Alhoewel die vrees van die Luddiete nie gerealiseer het nie, weens die groei van werkgeleenthede na die industriële revolusierewolusie (landbouwerkers vind nuwe werk as fabrieksarbeiders, technici, kantoorwerkers en bediendes), was daar tog inderdaad 'n vermindering van bepaalde vorme van werk. Daar was veral 'n dramatiese vermindering in werkgeleenthede vir kinders en ouer mense, wat moreel gesienbeskou, 'n goeie uitkoms was. 'n Post-singulariteitsgemeenskap kan moontlik veel ryker wees as 'n pre-singulariteitsgemeenskap (danksy die verbeterde manipulasie van materie en energie om aan die menslike behoeftes te voldoen) waarby genoeg welvaart oorbly om die werkloses te onderhou. 'n Moontlike scenario vir die singulariteit is 'n verhoging van die per kapita inkomste en 'n verlaging van die werkgeleenthede waarby iedereen sonder werk 'n soort [[basisinkomste]] gewaarborg word. Maar voor die inwerkingstelling van 'n basisinkomste moet daar wel genoeg voorsiening daarvoor gemaak wees deur onder andere die maghebbers en deur die finansiële elite en groot bedrywe wêreldwyd. Hiervoor is die geleenthede nie juis tans gunstig nie omdat die neo-liberalisme nog hoogty vier in die politieke en ekonomiese denke waarvolgens soveel moontlik aan die [[vrye mark]] oorgelaat word. Diegene wat nie kan byhou nie, soos siekes, gestremdes, werkloses en bejaardes, word daarby dus gou aan hul eie lot oorgelaat. So ontstaan daar geleidelik 'n verdeling in die samelewing: 'n steeds ryker wordenderykerwordende elite en 'n groeiende, steeds meer verarmde onderklas.
 
===Die vestiging van 'n onaantasbare elite===
Theodore Kacsynski, 'n heftige teenstander van die singulariteit en 'n neo-luddiet, word berug as die ''Unabomber''. Hy skryf, soos ander sceptici, dat 'n superintelligente entiteit die mensheid onherroepelyk sal uitroei of andersandersins sal gebruik as 'n willose werktuig vir sy eie doeleindes. Andersyds argumenteer Kacsynski, as KI nie geskep word nie, sal die ontwikkelende tegnologie die vestiging van 'n eliteklas toelaat wat nie meer teengestaan sal kan word nie, weens hul bomenslike intelligensie. Hierdie opperklasse sal ontstaan uit die huidige ekonomiese en politieke elite van die mensdom (''the mighty, rich and famous'') wiewat eksklusiewe toegang sal hê tot tegnologiese middele om die ligaam vir 'n onbepaalde tyd biologies gesond te hou en om tot die uitbreiding van hul intelligensie by te dra. Daarmee kry hulleword die middele inaan handehulle watverskaf om die 'groot massa' eweneens uitgesluit te hou. Die gemiddelde mens sal deur die maghebbers afgegradeer word tot die status van mak diere na voldoende tegnologiese vooruitgang om weerstand vir 'n onbepaalde tyd onder absolute beheer te behou. Sowel Bill Joy as Ray KursweilKurzweil haal Kacsynski aan in hul werk.
 
==Verwysings==