abonnement Unibet Coolblue
  donderdag 23 maart 2017 @ 01:20:09 #26
314096 yarnamc
nitimur in vetitum
pi_169714614
quote:
0s.gif Op donderdag 23 maart 2017 01:18 schreef Molurus het volgende:

[..]

Regelrecht onjuist. Net zoals wetten een afspiegeling zijn van normen en geen bron zijn ook religies geen bron van moraliteit.

Het Christendom komt niets uit dat daar niet eerst door mensen in is gestopt.
Met de tweede zin geef je aan dat je om het even welk gedachtenspinsel, van om het even welke mens, als "morele filosofie" ziet. Of zie ik dat verkeerd?

Het lijkt erop dat je in een absolute vorm van moraliteit gelooft? Absolute moraliteit bestaat niet wat mij betreft, het enige wat bestaat zijn religies en filosofen die hun favoriete moraliteit naar voor schuiven.

De quote van Montesquieu dat "iets niet rechtvaardig is omdat het wet is, maar wet moet zijn omdat het rechtvaardig is", is ook maar beperkt geldig, aangezien véél mensen hun waarden wel degelijk door de wet laten dicteren.

[ Bericht 8% gewijzigd door yarnamc op 23-03-2017 01:37:25 ]
  donderdag 23 maart 2017 @ 01:23:09 #27
314096 yarnamc
nitimur in vetitum
pi_169714635
quote:
0s.gif Op dinsdag 21 maart 2017 20:12 schreef Molurus het volgende:

[..]
Ik merk in diverse discussies dat de meeste mensen totaal niet op de hoogte zijn van wat morele filosofen in de loop der tijd hebben bedacht. Zoals bijvoorbeeld waarom utilitarisme een fundamenteel onrechtvaardige filosofie is.
Dit lijkt mij ook onzinnig. Een waardeoordeel is rechtvaardig of onrechtvaardig binnen een ethisch stelsel. Zo is een utilistisch oordeel dan ook "rechtvaardig" binnen een utilitaristische denkwijze. Op dezelfde manier als dat iets "logisch correct" is, binnen een bepaalde logica. Of wiskundig correct, binnen een bepaald axioma stelsel. Er bestaat geen superieure wiskunde, logica of ethiek.
pi_169736593
quote:
0s.gif Op dinsdag 21 maart 2017 18:20 schreef Tanatos het volgende:

Oh en "mensenrechten" voor AI, zonder meer al was het maar uit zelfbescherming.
Mensenrechten voor AI zou het begin van het einde van de mensheid betekenen. Hoe sneller je AI bouwt hoe groter hun invloed en als je nu al ziet dat de meest ontwikkelde gebieden een laag geboortecijfer kennen (Japan, Zuid Korea) dan zegt dat wel wat er zou gebeuren als AI zo menselijk overkomen dat ze voor de wet als mens behandeld moeten worden?

Baby's worden daar vervangen door robots en voor seks en genegenheid zal dat nog meer gaan gelden. Het kwalijke is dat het voor een groot deel vrijwillig zal gebeuren.

[ Bericht 3% gewijzigd door CaanBarzini op 23-03-2017 23:58:57 ]
pi_169743053
Gisteren een presentatie bekeken van iemand die claimt een voormalig medewerker te zijn van DARPA en andere covert militaire techniekbedrijven. Of ik hem en wat hij meegaf volledig moet geloven weet ik niet, maar als maar een deel in de buurt komt van wat mogelijk is of zal zijn, dan ben ik bang dat ik er vanuit moet gaan dat wij -in elk geval als burgerij- geen invloed zullen kunnen uitoefenen op welke ethiek leidend zal worden. Centraal in zijn betoog stond dat als de mens (incluis zijn brein/zijn zelf) in wezen een machine is, dat hij (zijn geest/denkpatronen) van buitenaf gestuurd kan worden. Die stelling maakte hij hard aan de hand va enkele voorbeelden, die je wel of niet kan geloven. Onwaarschijnlijk vond ik het in elk geval niet.
pi_169753757
quote:
0s.gif Op donderdag 23 maart 2017 23:52 schreef CaanBarzini het volgende:

[..]

Mensenrechten voor AI zou het begin van het einde van de mensheid betekenen. Hoe sneller je AI bouwt hoe groter hun invloed en als je nu al ziet dat de meest ontwikkelde gebieden een laag geboortecijfer kennen (Japan, Zuid Korea) dan zegt dat wel wat er zou gebeuren als AI zo menselijk overkomen dat ze voor de wet als mens behandeld moeten worden?

Baby's worden daar vervangen door robots en voor seks en genegenheid zal dat nog meer gaan gelden. Het kwalijke is dat het voor een groot deel vrijwillig zal gebeuren.
Als de mensheid een AI bouwt met een intellect wat superieur is aan dat v/d mens zou het volstrekt onethisch zijn om zo'n wezen geen "mensenrechten" te geven.
Hoe zou jij het vinden om zeg maar slaaf van chimpansees te zijn?
Hun intelligentie ligt nog vrij dicht bij die van ons (DNA is ca 98% hetzelfde) maar je zou nooit proberen een goed gesprek met een chimpansee te beginnen.
Als we een AI bouwen die zelf in staat is een nieuwe AI te bouwen ergo zichzelf te verbeteren (dan treedt de singulariteit op) dan gaat het daarna razendsnel en hebben we te maken met een intellect wat superieur aan dat v/d mens zal zijn, zo'n wezen kun je mensenrechten niet onthouden want je zult het niet kunnen controleren.
Houdt er rekening mee dat een digitaal wezen veel sneller zal denken dan wij en zich dus ook veel sneller zal ontwikkelen.

Dat Japan en Zuid-Korea de meest ontwikkelde gebieden zijn ben ik trouwens niet zo van overtuigd. (Of doel je op ICT infrastructuur?)
De dood gaat ons niet aan. Zolang we er zijn, is de dood er niet, en wanneer de dood er is, zijn wij er niet meer.
pi_169753848
quote:
0s.gif Op vrijdag 24 maart 2017 12:23 schreef LelijKnap het volgende:
Gisteren een presentatie bekeken van iemand die claimt een voormalig medewerker te zijn van DARPA en andere covert militaire techniekbedrijven. Of ik hem en wat hij meegaf volledig moet geloven weet ik niet, maar als maar een deel in de buurt komt van wat mogelijk is of zal zijn, dan ben ik bang dat ik er vanuit moet gaan dat wij -in elk geval als burgerij- geen invloed zullen kunnen uitoefenen op welke ethiek leidend zal worden. Centraal in zijn betoog stond dat als de mens (incluis zijn brein/zijn zelf) in wezen een machine is, dat hij (zijn geest/denkpatronen) van buitenaf gestuurd kan worden. Die stelling maakte hij hard aan de hand va enkele voorbeelden, die je wel of niet kan geloven. Onwaarschijnlijk vond ik het in elk geval niet.
Ik zag ook een TED talk van iemand die ook ernstig waarschuwt voor ontwikkelingen van het Amerikaanse leger:

De dood gaat ons niet aan. Zolang we er zijn, is de dood er niet, en wanneer de dood er is, zijn wij er niet meer.
  vrijdag 24 maart 2017 @ 21:48:02 #32
314096 yarnamc
nitimur in vetitum
pi_169754830
Interessante post, ik heb enkel bedenkingen erover.
quote:
0s.gif Op vrijdag 24 maart 2017 21:20 schreef Tanatos het volgende:

[..]

Als de mensheid een AI bouwt met een intellect wat superieur is aan dat v/d mens zou het volstrekt onethisch zijn om zo'n wezen geen "mensenrechten" te geven.
Hoe zou jij het vinden om zeg maar slaaf van chimpansees te zijn?
Hun intelligentie ligt nog vrij dicht bij die van ons (DNA is ca 98% hetzelfde) maar je zou nooit proberen een goed gesprek met een chimpansee te beginnen.
Ik vraag me af in welke mate intelligentie, vanuit een ethisch standpunt, een criterium moet zijn voor het verschaffen van mensen/robot-rechten. Ik denk dat het toekennen van mensenrechten voornamelijk gebeurt vanuit het perspectief van "bewustzijn" en "vermogen tot lijden". Veel mensen zijn van mening dat dieren een minder ontwikkeld bewustzijn hebben, dan mensen. Onlangs hoorde ik bijvoorbeeld enkele wetenschappers zeggen dat het geen betekenis heeft om van "bewustzijn van een rat" te spreken. Een dergelijk perspectief laat dan een morele rechtvaardiging van dierproeven toe, ondanks de intelligentie van ratten.

Wat mij dus cruciaal lijkt voor dit ingewikkeld probleem van "mensenrechten voor AGI/ASI", is in welke mate de AI zich bewust zal zijn. Ik weet hier het fijne niet van: het zou kunnen dat een voldoend hoge intelligentie of complexiteit automatisch leidt tot bewustzijn. Anderzijds zou het misschien ook kunnen dat door zorgvuldig design van de AI, bewustzijn vermeden kan worden.
quote:
Als we een AI bouwen die zelf in staat is een nieuwe AI te bouwen ergo zichzelf te verbeteren (dan treedt de singulariteit op) dan gaat het daarna razendsnel en hebben we te maken met een intellect wat superieur aan dat v/d mens zal zijn, zo'n wezen kun je mensenrechten niet onthouden want je zult het niet kunnen controleren.
Ik ben niet overtuigd dat AGI en/of ASI onmogelijk te controleren zal zijn. Het is en blijft geprogammeerd door mensen. Het is bijvoorbeeld interessant te weten dat op dit moment meer geld wordt uitgegeven aan het uitwerken van AI-safety, dan aan het verder ontwikkelen van de eerste AGI. Indien men voldoende zorgvuldig is, kan in theorie de AGI of ASI gecontroleerd worden, zelfs al overstijgt hij onze intelligentie met talrijke ordes van grootte.
quote:
Houdt er rekening mee dat een digitaal wezen veel sneller zal denken dan wij en zich dus ook veel sneller zal ontwikkelen.
Dit vind ik een zeer interessant punt. Men gaat er altijd van uit dat AI onze intelligentie uiteindelijk ver te boven zal gaan. Ik ga akkoord dat dit potentiëel gevaarlijk zou kunnen zijn. Dit standpunt wordt vervolgens ondersteund door het feit dat een AI zichzelf zowel op vlak van software als hardware zal kunnen verbeteren. Wat men hierbij volgens mij over het hoofd ziet, is dat er volgens mij geen enkele reden is de mens niet zou mee-evolueren. Zowel op "hardware-matig" (e.g. genmanipulatie (CRISPR,...), stamcellen, ...) en "software-matig" (e.g. hersen-computer interfaces zoals tDCS en TMS, nanoparticle-neuron interfaces, ...) vlak. Dit lijkt mij trouwens de meest effectieve manier om de gevaren van ASI te neutraliseren.

Als je erover nadenkt, het ontwikkelen van een ASI zou als heel belangrijk voordeel hebben, dat we de ASI kunnen gebruiken om onze eigen biologie te verbeteren.
quote:
Dat Japan en Zuid-Korea de meest ontwikkelde gebieden zijn ben ik trouwens niet zo van overtuigd. (Of doel je op ICT infrastructuur?)
Van Zuid-Korea is geweten dat ze het land zijn dat het grootste percentage van het GDP uitgeeft aan wetenschap.

[ Bericht 2% gewijzigd door yarnamc op 24-03-2017 21:53:21 ]
  zaterdag 25 maart 2017 @ 03:20:26 #33
464166 Captain_Jack_Sparrow
Why is all the rum gone?
pi_169760406
quote:
0s.gif Op dinsdag 21 maart 2017 17:48 schreef AnInconvenientTruth het volgende:

Het lijkt mij dan ook inderdaad geen goed idee om AI's voor wapentuig te gebruiken voordat we dit zelf uitvogelen. Laten we eerst onderzoeken hoe een AI de wereld ziet.
Deze ground rules zijn in 1942 al opgeschreven door Isaac Asimov.

Three laws of robotics:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
"This is the day you will always remember as the day you almost caught Captain Jack Sparrow".
  zaterdag 25 maart 2017 @ 03:23:28 #34
464166 Captain_Jack_Sparrow
Why is all the rum gone?
pi_169760408
quote:
15s.gif Op dinsdag 21 maart 2017 10:27 schreef Tanatos het volgende:

Herziening van onze waarden is niet enkel wenselijk maar in het kader van de voortschrijdende technologische ontwikkelingen bittere noodzaak.
Ik denk niet dat er een herziening van waarden nodig is, wel dat we de vervaging van de waarden die we al lang hebben terugdraaien.
"This is the day you will always remember as the day you almost caught Captain Jack Sparrow".
  zaterdag 25 maart 2017 @ 10:59:13 #35
466223 AnInconvenientTruth
Laten we het civiel houden
pi_169762967
quote:
0s.gif Op zaterdag 25 maart 2017 03:20 schreef Captain_Jack_Sparrow het volgende:

[..]

Deze ground rules zijn in 1942 al opgeschreven door Isaac Asimov.

Three laws of robotics:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
Maar de logische conclusie is dit

http://tvtropes.org/pmwiki/pmwiki.php/Main/ZerothLawRebellion

Het welzijn van de groep gaat boven het individu.
  dinsdag 28 maart 2017 @ 23:21:02 #36
314096 yarnamc
nitimur in vetitum
pi_169851485
quote:
0s.gif Op vrijdag 24 maart 2017 21:48 schreef yarnamc het volgende:
. Wat men hierbij volgens mij over het hoofd ziet, is dat er volgens mij geen enkele reden is de mens niet zou mee-evolueren. Zowel op "hardware-matig" (e.g. genmanipulatie (CRISPR,...), stamcellen, ...) en "software-matig" (e.g. hersen-computer interfaces zoals tDCS en TMS, nanoparticle-neuron interfaces, ...) vlak. Dit lijkt mij trouwens de meest effectieve manier om de gevaren van ASI te neutraliseren.
Cfr. https://en.wikipedia.org/wiki/Neuralink.
abonnement Unibet Coolblue
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')