Tegnologiese singulariteit: Verskil tussen weergawes

Content deleted Content added
Sobaka (besprekings | bydraes)
Sobaka (besprekings | bydraes)
No edit summary
Lyn 116:
 
Ten slotte is daar die sosioloë en antropoloë soos [[Alvin Toffler]] (outeur van ''Future Shock''), Daniel Bell en John Nashbitt wie teorieë oor die post-industriële samelewings ontwikkel het. Hulle argumenteer dat die huidige tydperk van die industriële samelewing sy einde nader en dat dienste en informasie belangriker geword het as industrie en goedere. Sommige meer ektreme visies van post-industriële samelewings, veral in fiksie lyk baie soos post-singulariteit samelewings.
 
==Moontlike gevare van die singulariteit==
 
Skeptici verwys na verskillende (moontlike selfs dodelike) gevare van die singulariteit vir die mensdom:
 
• gevaarlike situasies wat voortspruit uit die tegnologie wat uiteindelik 'n [[kunsmatige intelligensie]] (KI) moet oplewer.
 
• gevare voortspruitend uit 'n KI self.
 
===Gevaarlike tegnologie===
Sommige mense beweer dat die ontwikkelde tegnologië gewoon te gevaarlik is vir die mens, sodat dit moreel gesien, verbied behoort te word. Daar word veral gevrees vir 'n uiteindelike toekomstige tegnologiese [[distopie]]. Baie andere is teen die singulariteit maar nie teen moderne tegnologie as sodanig nie, soos die neo-Luddiete. Gevaarlike tegnologie waarna dikwels verwys word is molukelêre [[nanotegnologie]] en [[genetiese manipulasie]]. In 'n vergevorderde stadium kan hierdie tegnologië moontlik deur 'n superintelligensie aangewend word wat 'n wesentlike gevaar vir die mensdom inhou. Hierdie bedreiging is belangrike aangeleentheid, sowel vir singulariteitsvoorstanders as vir singulariteitskritici, en was die onderwerp van 'n artikel deur Bill Joy gepubliseer in ''Wired'' tydskrif, getiteld ''Why the future doesn't need us''. [[Oxford Universiteit]] filosoof Nick Bostrom evalueer ook die gevare van die singulariteit vir die oorlewering van die mensdom in sy [[essay]] ''Existential risks''.
Baie ondersteuners van die singulariteit beskou nanotegnologie as van die belangrikste eksitensiële risikos vir die mensdom. Daarom glo die meeste dat nanotegnologie sou moet voorafgegaan word deur 'n Saad-KI ('n soort basis van kunsmagtige intelligensie) en dat 'n pre-singulariteit gemeenskap dus geen nanotegnologie sou mag besit nie. Ander, soos die Foresight Institute, stimuleer juis inisiatiewe om molekulêre nanotegnologie te skep, omdat hulle glo dat nanotegnologie ook veilig gemaak kan word vir pre-singulariteit gebruik of selfs dat nanotegnologie die koms van 'n gunstige singulariteit kan versnel.
 
===Intelligensie en morele waardes===
Sommige denkers vermoed dat hiper-intelligensie waarskynlik ander prioriteite as die mensdom sou stel. Omdat per definisie 'gewone' intelligente mense die superintelligensies nie meer kan volg nie. Voorts sal die superintelligensies ook nog steeds vinniger intelligent word wat hierdie entiteite die vermoë gee om alle moontlike teenstand te voorsien en by voorbaat uit te skakel. Hoewel sommiges argumenteer dat met hoë intelligensie ook 'outomaties' hoë morele waardes saamgaan is daar andere wat die verband ontken. Hulle wys op die [[Nazi]]s wie hulself in die praktyk weens hul rasistiese en totalitêre ideologie nie laat lei het deur enige morele beginsels nie. Baie hoogintelligente mense soos geleerdes, dokters en ingenieurs het vrywillig hul medewerking aan die regime gegee, veral in die jare dertig en die begin van die oorlog toe die stelsel nog suksesvol lyk. Blykbaar het hierdie, tog as bogemiddelde intelligente mense, geen morele besware teen die Nazis en hulle ideologie nie. KI-navorser Hugo de Garis veronderstel daarom, verwysend na onder andere hiedie historiese voorbeeld, dat bomenslike intelligensies die mensdom bloot gaan elimineer en dat die mensdom dit nie kan stop nie.
 
Voorstanders van 'Vriendelike kunsmatige intelligensie' sien ook in dat die singulariteit wel 'n groot gevaar vir die mensdom sou kon inhou, en juis om hierdie rede steun hulle pogings om die singulariteit veiliger te maak deur KI te skep wat welwillend teenoor die mens sal wees. Hierdie idee is ook vervat in die 'drie wette van die robotika' van [[Isaac Asimov]], daarop afgestem om 'n kunsmatige intelligente robot te verhinder en terselfdetyd nie mense kwaad aan te doen nie. Dit ten spyte daarvan dat in baie storielyne van Asimov se verhale fokus op die mislukking van sy wette. 'n Instituut in die [[VSA]] wat hulself besig hou met die veiliger maak van 'n moontlike KI is die Machine Intelligence Research Institute (MIRI) gestig deur singulariteitsondersteuner Elieser Yudkowski en gesteun deur onder andere Ray Kursweil.
 
==Verwysings==