Met de tweede zin geef je aan dat je om het even welk gedachtenspinsel, van om het even welke mens, als "morele filosofie" ziet. Of zie ik dat verkeerd?quote:Op donderdag 23 maart 2017 01:18 schreef Molurus het volgende:
[..]
Regelrecht onjuist. Net zoals wetten een afspiegeling zijn van normen en geen bron zijn ook religies geen bron van moraliteit.
Het Christendom komt niets uit dat daar niet eerst door mensen in is gestopt.
Dit lijkt mij ook onzinnig. Een waardeoordeel is rechtvaardig of onrechtvaardig binnen een ethisch stelsel. Zo is een utilistisch oordeel dan ook "rechtvaardig" binnen een utilitaristische denkwijze. Op dezelfde manier als dat iets "logisch correct" is, binnen een bepaalde logica. Of wiskundig correct, binnen een bepaald axioma stelsel. Er bestaat geen superieure wiskunde, logica of ethiek.quote:Op dinsdag 21 maart 2017 20:12 schreef Molurus het volgende:
[..]
Ik merk in diverse discussies dat de meeste mensen totaal niet op de hoogte zijn van wat morele filosofen in de loop der tijd hebben bedacht. Zoals bijvoorbeeld waarom utilitarisme een fundamenteel onrechtvaardige filosofie is.
Mensenrechten voor AI zou het begin van het einde van de mensheid betekenen. Hoe sneller je AI bouwt hoe groter hun invloed en als je nu al ziet dat de meest ontwikkelde gebieden een laag geboortecijfer kennen (Japan, Zuid Korea) dan zegt dat wel wat er zou gebeuren als AI zo menselijk overkomen dat ze voor de wet als mens behandeld moeten worden?quote:Op dinsdag 21 maart 2017 18:20 schreef Tanatos het volgende:
Oh en "mensenrechten" voor AI, zonder meer al was het maar uit zelfbescherming.
Als de mensheid een AI bouwt met een intellect wat superieur is aan dat v/d mens zou het volstrekt onethisch zijn om zo'n wezen geen "mensenrechten" te geven.quote:Op donderdag 23 maart 2017 23:52 schreef CaanBarzini het volgende:
[..]
Mensenrechten voor AI zou het begin van het einde van de mensheid betekenen. Hoe sneller je AI bouwt hoe groter hun invloed en als je nu al ziet dat de meest ontwikkelde gebieden een laag geboortecijfer kennen (Japan, Zuid Korea) dan zegt dat wel wat er zou gebeuren als AI zo menselijk overkomen dat ze voor de wet als mens behandeld moeten worden?
Baby's worden daar vervangen door robots en voor seks en genegenheid zal dat nog meer gaan gelden. Het kwalijke is dat het voor een groot deel vrijwillig zal gebeuren.
Ik zag ook een TED talk van iemand die ook ernstig waarschuwt voor ontwikkelingen van het Amerikaanse leger:quote:Op vrijdag 24 maart 2017 12:23 schreef LelijKnap het volgende:
Gisteren een presentatie bekeken van iemand die claimt een voormalig medewerker te zijn van DARPA en andere covert militaire techniekbedrijven. Of ik hem en wat hij meegaf volledig moet geloven weet ik niet, maar als maar een deel in de buurt komt van wat mogelijk is of zal zijn, dan ben ik bang dat ik er vanuit moet gaan dat wij -in elk geval als burgerij- geen invloed zullen kunnen uitoefenen op welke ethiek leidend zal worden. Centraal in zijn betoog stond dat als de mens (incluis zijn brein/zijn zelf) in wezen een machine is, dat hij (zijn geest/denkpatronen) van buitenaf gestuurd kan worden. Die stelling maakte hij hard aan de hand va enkele voorbeelden, die je wel of niet kan geloven. Onwaarschijnlijk vond ik het in elk geval niet.
Ik vraag me af in welke mate intelligentie, vanuit een ethisch standpunt, een criterium moet zijn voor het verschaffen van mensen/robot-rechten. Ik denk dat het toekennen van mensenrechten voornamelijk gebeurt vanuit het perspectief van "bewustzijn" en "vermogen tot lijden". Veel mensen zijn van mening dat dieren een minder ontwikkeld bewustzijn hebben, dan mensen. Onlangs hoorde ik bijvoorbeeld enkele wetenschappers zeggen dat het geen betekenis heeft om van "bewustzijn van een rat" te spreken. Een dergelijk perspectief laat dan een morele rechtvaardiging van dierproeven toe, ondanks de intelligentie van ratten.quote:Op vrijdag 24 maart 2017 21:20 schreef Tanatos het volgende:
[..]
Als de mensheid een AI bouwt met een intellect wat superieur is aan dat v/d mens zou het volstrekt onethisch zijn om zo'n wezen geen "mensenrechten" te geven.
Hoe zou jij het vinden om zeg maar slaaf van chimpansees te zijn?
Hun intelligentie ligt nog vrij dicht bij die van ons (DNA is ca 98% hetzelfde) maar je zou nooit proberen een goed gesprek met een chimpansee te beginnen.
Ik ben niet overtuigd dat AGI en/of ASI onmogelijk te controleren zal zijn. Het is en blijft geprogammeerd door mensen. Het is bijvoorbeeld interessant te weten dat op dit moment meer geld wordt uitgegeven aan het uitwerken van AI-safety, dan aan het verder ontwikkelen van de eerste AGI. Indien men voldoende zorgvuldig is, kan in theorie de AGI of ASI gecontroleerd worden, zelfs al overstijgt hij onze intelligentie met talrijke ordes van grootte.quote:Als we een AI bouwen die zelf in staat is een nieuwe AI te bouwen ergo zichzelf te verbeteren (dan treedt de singulariteit op) dan gaat het daarna razendsnel en hebben we te maken met een intellect wat superieur aan dat v/d mens zal zijn, zo'n wezen kun je mensenrechten niet onthouden want je zult het niet kunnen controleren.
Dit vind ik een zeer interessant punt. Men gaat er altijd van uit dat AI onze intelligentie uiteindelijk ver te boven zal gaan. Ik ga akkoord dat dit potentiëel gevaarlijk zou kunnen zijn. Dit standpunt wordt vervolgens ondersteund door het feit dat een AI zichzelf zowel op vlak van software als hardware zal kunnen verbeteren. Wat men hierbij volgens mij over het hoofd ziet, is dat er volgens mij geen enkele reden is de mens niet zou mee-evolueren. Zowel op "hardware-matig" (e.g. genmanipulatie (CRISPR,...), stamcellen, ...) en "software-matig" (e.g. hersen-computer interfaces zoals tDCS en TMS, nanoparticle-neuron interfaces, ...) vlak. Dit lijkt mij trouwens de meest effectieve manier om de gevaren van ASI te neutraliseren.quote:Houdt er rekening mee dat een digitaal wezen veel sneller zal denken dan wij en zich dus ook veel sneller zal ontwikkelen.
Van Zuid-Korea is geweten dat ze het land zijn dat het grootste percentage van het GDP uitgeeft aan wetenschap.quote:Dat Japan en Zuid-Korea de meest ontwikkelde gebieden zijn ben ik trouwens niet zo van overtuigd. (Of doel je op ICT infrastructuur?)
Deze ground rules zijn in 1942 al opgeschreven door Isaac Asimov.quote:Op dinsdag 21 maart 2017 17:48 schreef AnInconvenientTruth het volgende:
Het lijkt mij dan ook inderdaad geen goed idee om AI's voor wapentuig te gebruiken voordat we dit zelf uitvogelen. Laten we eerst onderzoeken hoe een AI de wereld ziet.
Ik denk niet dat er een herziening van waarden nodig is, wel dat we de vervaging van de waarden die we al lang hebben terugdraaien.quote:Op dinsdag 21 maart 2017 10:27 schreef Tanatos het volgende:
Herziening van onze waarden is niet enkel wenselijk maar in het kader van de voortschrijdende technologische ontwikkelingen bittere noodzaak.
Maar de logische conclusie is ditquote:Op zaterdag 25 maart 2017 03:20 schreef Captain_Jack_Sparrow het volgende:
[..]
Deze ground rules zijn in 1942 al opgeschreven door Isaac Asimov.
Three laws of robotics:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
Cfr. https://en.wikipedia.org/wiki/Neuralink.quote:Op vrijdag 24 maart 2017 21:48 schreef yarnamc het volgende:
. Wat men hierbij volgens mij over het hoofd ziet, is dat er volgens mij geen enkele reden is de mens niet zou mee-evolueren. Zowel op "hardware-matig" (e.g. genmanipulatie (CRISPR,...), stamcellen, ...) en "software-matig" (e.g. hersen-computer interfaces zoals tDCS en TMS, nanoparticle-neuron interfaces, ...) vlak. Dit lijkt mij trouwens de meest effectieve manier om de gevaren van ASI te neutraliseren.
|
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |