Tegnologiese singulariteit: Verskil tussen weergawes

Content deleted Content added
Sobaka (besprekings | bydraes)
No edit summary
Lyn 130:
 
===Intelligensie en morele waardes===
Sommige denkers vermoed dat hiper-intelligensie waarskynlik ander prioriteite as die mensdom sou stel. Omdat per definisie 'gewone' intelligente mense die superintelligensies nie meer kan volg nie. Voorts sal die superintelligensies ook nog steeds vinniger intelligent word wat hierdie entiteite die vermoë gee om alle moontlike teenstand te voorsien en by voorbaat uit te skakel. Hoewel sommiges argumenteer dat met hoë intelligensie ook 'outomaties' hoë morele waardes saamgaan is daar andere wat die verband ontken. Hulle wys op die [[Nazi]]s wie hulself in die praktyk weens hul rasistiese en totalitêre ideologie nie laat lei het deur enige morele beginsels nie. Baie hoogintelligente mense soos geleerdes, dokters en ingenieurs het vrywillig hul medewerking aan die regime gegee, veral in die jare dertig en die begin van die oorlog[[Tweede Wêreldoorlog]]toe die stelsel nog suksesvol lykgelyk het. Blykbaar het hierdie, tog as bogemiddelde intelligente mense, geen morele besware teen die Nazis en hulle ideologie nie. KI-navorser Hugo de Garis veronderstel daarom, verwysend na onder andere hiedie historiese voorbeeld, dat bomenslike intelligensies die mensdom bloot gaan elimineer en dat die mensdom dit nie kan stop nie.
 
Voorstanders van 'Vriendelike kunsmatige intelligensie' sien ook in dat die singulariteit wel 'n groot gevaar vir die mensdom sou kon inhou, en juis om hierdie rede steun hulle pogings om die singulariteit veiliger te maak deur KI te skep wat welwillend teenoor die mens sal wees. Hierdie idee is ook vervat in die 'drie wette van die robotika' van [[Isaac Asimov]], wat daarop afgestem is om 'n kunsmatige intelligente robot te verhinder en terselfdetyd nie mense kwaad aan te doen nie. Dit ten spyte daarvan dat in baie storielyne van Asimov se verhale fokus op die mislukking van sy wette. 'n Instituut in die [[VSA]] wat hulself besig hou met die veiliger maak van 'n moontlike KI is die Machine Intelligence Research Institute (MIRI) gestig deur singulariteitsondersteuner Elieser Yudkowski en gesteun deur onder andere Ray Kursweil.
 
==Verwysings==