quote:
Op dinsdag 9 oktober 2007 16:53 schreef casejunkie het volgende:De grootste vraag is die de wetenschappers zich afvragen wat kan en gaat er gebeuren als we inderdaad het voorelkaar krijgen om Artificial intelligence te ontwikkelen?
Dit is nog steeds niet te voorspellen. Maar ga eens een boek lezen van Asimov, erg mooie boeken over dit onderwerp met goede verhalen.
Heb k idd veel over gehoord, I robot was (nogal) losjes gebaseerd op zijn verhalen
geloof ik, ga k zeker doen!
Over AI:
De vraag daarin is denk ik niet als, maar wanneer... Er zijn ook tal van mensen in wetenschap en
andere gebieden die het samen proberen te ontwikkelen... Iemand die er voor leeft het te ontwikkelen
zal mijns inziens minder stilstaan bij de gevolgen, maar meer bezig zijn met de mogelijkheden...
Hier een stukje over kraaien in t echte leven, welke zich aanpassen aan omstandigheden
(wachten op t stoplicht FTW
)
http://smart-machines.blo(...)are-smart-birds.htmlIk heb een paar jaar geleden een heel mooie docu gezien over
Artificial Life, waarbij een man een
virtuele vogelzwerm liet vliegen waarbij ze via formules obstakels moesten ontwijken en tegelijkertijd
hun formatie in de zwerm moesten behouden... Na een paar keer hadden ze (de vogels, en
dus het programma) de formatie zo aangepast en waren zo op elkaar ingespeeld dat ze feiloos
om en door de opstakels gingen zonder elkaar in de weg te zitten...
Kortom, door echte situalties in simulaties met open en veranderlijke waarden te plaatsen
krijgen ze het voor elkaar het programma te laten leren...
Wanneer is iets bewust? Wordt er van een machine gevraagd zichzelf of een product
te verbeteren? Wordt er gevraagd je te begrijpen? Prioriteiten te stellen? Via functies en
alogaritmen kan enorm veel berekend worden als je waarden invoert die niet van
te voren vast staan maar op de situatie van toepassing zijn... Dit doen mensen in principe
ook, hier een leuk artikel over
Adaptive Intelligence als
initiator van Artificial Intelligence...
Is het mogelijk dat een machine het logischerwijs negatief beredeneert / berekent
dat het schade word aangedaan? Schade dient logischerwijs vermeden te worden...
Een waarde hoeft niet zozeer uit een gevoel voort te komen maar kan ook uit
logica ontstaan...
Wat zou er gebeuren als je je ietwat intelligente huisrobot elke avond als je thuis komt
zijn arm afrukt, hem ermee voor z'n kop slaat, lacht, en hem deze zelf laat repareren?
Het doet misschien geen pijn, en het zal er misschien ook geen haat of iets door voelen,
maar zal hij het proberen te voorkomen? en hoe?
Kan een denkwijze die gebaseerd is op logische formules wel omgaan met menselijke
gekte en emoties? Is AI daarin 'trauma-bestendig' of trekt het conclusies? Zal het waarde
gaan hechten aan zijn bestaan, of aan iets of iemand?
En nog een vraagstuk... Kan er in AI een nieuwschierigheid vormen? Wellicht
extreme ideeen krijgen?
Dezelfde vragen in de OP zijn overigens van toepassing als we ons geen zorgen zouden
hoeven maken over AI... Als alles voor ons gedaan zou worden, hoe zou je leven er
dan uitzien? Wat zou je zelf nog leren? Zouden mensen nog wel zonder kunnen?
En waar zou je inkomen vandaan komen als vrijwel alles via robots zou werken?
[ Bericht 0% gewijzigd door B-FliP op 09-10-2007 23:04:33 ]