Tegnologiese singulariteit: Verskil tussen weergawes

Content deleted Content added
Skakel
Sobaka (besprekings | bydraes)
Lyn 126:
 
=== Gevaarlike tegnologie ===
Sommige mense beweer dat die ontwikkelde tegnologieë gewoon te gevaarlik is vir die mens, sodat dit moreel gesien, verbied behoort te word. Daar word veral gevrees vir 'n uiteindelike toekomstige tegnologiese [[distopie]]. Baie andere, soos die neo-[[Luddisme|Luddiete]], is teen die singulariteit gekant maar nie teen moderne tegnologie as sodanig nie. Gevaarlike tegnologie waarna dikwels verwys word is molukelêre [[nanotegnologie]] en [[genetiese manipulasie]]. In 'n vergevorderde stadium kan hierdie tegnologieë moontlik deur 'n superintelligensie aangewend word wat 'n wesentlike gevaar vir die mensdom inhou. Hierdie bedreiging is 'n belangrike aangeleentheid, sowel vir singulariteitsvoorstanders as vir singulariteitskritici, en was die onderwerp van 'n artikel deur Bill Joy gepubliseer in ''Wired'' tydskrif, getiteld ''Why the future doesn't need us''. [[Oxford Universiteit]] filosoof Nick Bostrom evalueer ook die gevare van die singulariteit vir die oorlewering van die mensdom in sy [[essay]] ''Existential risks''.
Baie ondersteuners van die singulariteit beskou nanotegnologie as van die belangrikste eksistensiële risikos vir die mensdom. Daarom glo die meeste dat nanotegnologie voorafgegaan sou moet word deur 'n Saad-KI ('n soort basis van kunsmagtige intelligensie) en dat 'n pre-singulariteit gemeenskap dus geen nanotegnologie sou mag besit nie. Ander, soos die Foresight Institute, stimuleer juis inisiatiewe om molekulêre nanotegnologie te skep, omdat hulle glo dat nanotegnologie ook veilig gemaak kan word vir pre-singulariteit gebruik of selfs dat nanotegnologie die koms van 'n gunstige singulariteit kan versnel.