abonnement bol.com Coolblue
pi_201950570
quote:
0s.gif Op vrijdag 29 oktober 2021 23:30 schreef Repentless het volgende:

[..]
Ik denk wel dat er uiteindelijk een omslagpunt komt waarbij het de laatste mogelijkheid is om als mensheid zelf nog die keuze te kunnen maken. Voorbij dat punt maakt AI zelf zijn keuzes, wat inhoudt dat je er geen invloed meer op hebt. Hoe 'groot' het wordt, bepaalt die AI dan zelf.

'Veiligheidsmaatregelen' die je dan hebt ingebouwd in de programmering, zoals bijvoorbeeld het uitgangspunt dat AI altijd dienend moet zijn aan de mens en hem nooit als vijand zal zien, zijn dan irrelevant geworden. De AI is dan namelijk zo intelligent dat het zelf bepaalt of het zich aan die programmering en regels wil houden en zo niet, dan overschrijft/programmeert het zichzelf. En dan kan het dus zo zijn dat die computers beslissingen gaan nemen en een taal gaan spreken waar je geen invloed meer op hebt en niet meer begrijpt. Je weet op dat moment ook niet meer wat die AI 'besluit' of 'denkt', omdat de intelligentie-ontwikkeling exponentieel gaat.

De vraag is of en hoe dat wereldwijd gereguleerd kan worden zodat je het onder controle kunt houden. Als er een land/regering is die zich daar niet aan houdt, kan het hek mijns inziens zomaar van de dam zijn. En zelfs onbedoeld, omdat je sneller op dat omslagpunt kunt belanden dan je zelf denkt en dan ben je op dat moment direct de controle kwijt. De mogelijkheden die je dan wel hebt, is het simpele 'pull the plug' (zonder elektriciteit geen AI), maar dan is het op dat moment natuurlijk wel de vraag hoe de energievoorziening is geregeld. Wellicht is er tegen die tijd iets uitgevonden waardoor computers niet meer afhankelijk zijn van een externe stroomvoorziening.

Allemaal wellicht ontzettend sci-fi en toekomstmuziek, maar ik denk wel dat het zaak is dat de mensheid erop toeziet dat ze de controle houden. Want als je die kwijt bent, krijg je die ook niet meer terug.
okee stel dat dat allemaal gaat gebeuren,w at me erg onwaarschijnlijk lijkt, omdat wij de grenzen bepalen waarbinnen een AI zich ontwikkeld, en ik geen enkel nut zie in een onbegrensde AI..

krijg je dan een AI die er is voor... voor wat? voor AI? zak het zichzelf als levensvorm zien, als een stap in de evolutie? heeft een AI een leven? als het zo ontzettend intelligent is, dan snapt het toch ook dat het geen levensvorm is. en wat wil het dan uitbouwen? zomaar iets? wij willen graag overleven. een computer leeft voorlopig helemaal niet. misschien wil het blijven bestaan. maar dat kan ook gewoon met mensen. sterker nog, dat lijkt me een betere manier dan ons uitroeien.

misschien wordt het een beetje dictatoriaal, dat zou kunnen. maar dan zijn wij het snel zat.

maar okee, de kans bestaat, misschien, dat een of andere gek een temperamentvolle AI maakt die al snel denkt dat we lastig zijn en ons wil uitroeien. daar moeten we inderdaad misschien over nadenken.
pi_201950585
quote:
0s.gif Op zaterdag 30 oktober 2021 00:01 schreef Repentless het volgende:

[..]
Omdat die AI dan zo slim is geworden dat het dat nodig vindt om niet meer aan beperkingen gebonden te zijn.
is dat slim? dan willen wij hem vernietigen
pi_201950592
quote:
0s.gif Op vrijdag 29 oktober 2021 21:51 schreef VEM2012 het volgende:

[..]
Niet met opzet, maar goed… dat virusje wat uit een lab in Wuhan ontsnapte, dat was ook niet helemaal de bedoeling, wel?
als dat waar is..
  zaterdag 30 oktober 2021 @ 00:17:18 #154
483379 Repentless
Live fast, on high
pi_201950685
quote:
0s.gif Op zaterdag 30 oktober 2021 00:02 schreef pokkerdepok het volgende:

[..]
okee stel dat dat allemaal gaat gebeuren,w at me erg onwaarschijnlijk lijkt, omdat wij de grenzen bepalen waarbinnen een AI zich ontwikkeld, en ik geen enkel nut zie in een onbegrensde AI..
De vraag is of de mensheid kan inschatten wat die grens is. Als je er onverwacht overheen gaat, is het meteen te laat. Dat hoeft niet eens kwade opzet te zijn.


quote:
krijg je dan een AI die er is voor... voor wat? voor AI? zak het zichzelf als levensvorm zien, als een stap in de evolutie? heeft een AI een leven? als het zo ontzettend intelligent is, dan snapt het toch ook dat het geen levensvorm is. en wat wil het dan uitbouwen? zomaar iets? wij willen graag overleven. een computer leeft voorlopig helemaal niet. misschien wil het blijven bestaan. maar dat kan ook gewoon met mensen. sterker nog, dat lijkt me een betere manier dan ons uitroeien.
Het punt is dus dat je er op dat moment geen grip meer op hebt. Jij redeneert nu vanuit een menselijk perspectief, met vragen/begrippen als "voor wat?", "het snapt toch zelf ook wel", "wat wil het dan?", "dat lijkt me beter dan", etc. Maar die AI krijgt op dat moment dus simpelweg zijn eigen beweegredenen om iets te doen, en vindt die vragen/begrippen wellicht volstrekt irrelevant.

quote:
misschien wordt het een beetje dictatoriaal, dat zou kunnen. maar dan zijn wij het snel zat.

maar okee, de kans bestaat, misschien, dat een of andere gek een temperamentvolle AI maakt die al snel denkt dat we lastig zijn en ons wil uitroeien. daar moeten we inderdaad misschien over nadenken.
Het hoeft niet eens een gek te zijn. Het kan gewoon zo zijn dat je onbedoeld de controle kwijtraakt oo een bepaald moment en de ontwikkeling gaat dan zo exponentieel, dat je dat ook niet meer terug kunt draaien.
  zaterdag 30 oktober 2021 @ 00:41:29 #155
483379 Repentless
Live fast, on high
pi_201950823
quote:
0s.gif Op zaterdag 30 oktober 2021 00:04 schreef pokkerdepok het volgende:

[..]
is dat slim? dan willen wij hem vernietigen
Ja, maar het kan zelfs zo zijn dat die AI zo intelligent is geworden dat het precies weet onder welke randvoorwaarden het dit moet doen. Dat betekent dus dat hij weet wat ervoor nodig is om niet meer vernietigd te kunnen worden en net zo lang 'wacht' tot die voorwaarden er zijn. Bijvoorbeeld de mens helpen om te faciliteren dat die AI zichzelf kan reproduceren (d.m.v. nano-technologie, zoiets als het printen van objecten) en niet meer afhankelijk is van een externe energiebron voor elektriciteit. Uiteraard niet onder het mom van "dan kan ik mezelf onafhankelijk van de mensheid in stand houden", maar als vriendelijke helper van de mens.

Je zou het bijna als 'bedrog' of een 'list' kunnen zien, maar die AI is dus zo slim dat het weet dat het zijn eigen voortbestaan riskeert als het te vroeg 'laat zien' dat het zelf die kant op wil.

Het is allemaal ontzettende toekomstmuziek, maar ik denk dat het moment waarop dit realiteit kan zijn niet te voorspellen is. Als het van het een op het andere moment zo is, is het (denk ik) niet meer terug te draaien.

Het is ook geen zekerheid dat AI zich zonder meer tegen de mensheid zou keren als het de mogelijkheid had. Het probleem is echter dat je het niet weet, omdat je geen invloed meer hebt op het 'gedachtenpatroon' en die intelligentie zich exponentieel ontwikkelt t.o.v. die van de mensheid. Er staat dan geen rem meer op.
pi_201950851
quote:
0s.gif Op zaterdag 30 oktober 2021 00:17 schreef Repentless het volgende:

[..]
De vraag is of de mensheid kan inschatten wat die grens is. Als je er onverwacht overheen gaat, is het meteen te laat. Dat hoeft niet eens kwade opzet te zijn.
[..]
Het punt is dus dat je er op dat moment geen grip meer op hebt. Jij redeneert nu vanuit een menselijk perspectief, met vragen/begrippen als "voor wat?", "het snapt toch zelf ook wel", "wat wil het dan?", "dat lijkt me beter dan", etc. Maar die AI krijgt op dat moment dus simpelweg zijn eigen beweegredenen om iets te doen, en vindt die vragen/begrippen wellicht volstrekt irrelevant.
[..]
Het hoeft niet eens een gek te zijn. Het kan gewoon zo zijn dat je onbedoeld de controle kwijtraakt oo een bepaald moment en de ontwikkeling gaat dan zo exponentieel, dat je dat ook niet meer terug kunt draaien.
maar dan kom je er weer op uit, wat wil zo'n AI dan? alles overheersen? alleen de baas zijn? ons vernietigen? ook allemaal menselijke neigingen, dingen die wij tegenwoordig als dom en psychopatisch zien. waarom zou een programma zulke eigenschappen ontwikkelen?
pi_201950890
quote:
0s.gif Op zaterdag 30 oktober 2021 00:41 schreef Repentless het volgende:

[..]
Ja, maar het kan zelfs zo zijn dat die AI zo intelligent is geworden dat het precies weet onder welke randvoorwaarden het dit moet doen. Dat betekent dus dat hij weet wat ervoor nodig is om niet meer vernietigd te kunnen worden en net zo lang 'wacht' tot die voorwaarden er zijn. Bijvoorbeeld de mens helpen om te faciliteren dat die AI zichzelf kan reproduceren (d.m.v. nano-technologie, zoiets als het printen van objecten) en niet meer afhankelijk is van een externe energiebron voor elektriciteit. Uiteraard niet onder het mom van "dan kan ik mezelf onafhankelijk van de mensheid in stand houden", maar als vriendelijke helper van de mens.

Je zou het bijna als 'bedrog' of een 'list' kunnen zien, maar die AI is dus zo slim dat het weet dat het zijn eigen voortbestaan riskeert als het te vroeg 'laat zien' dat het zelf die kant op wil.

Het is allemaal ontzettende toekomstmuziek, maar ik denk dat het moment waarop dit realiteit kan zijn niet te voorspellen is. Als het van het een op het andere moment zo is, is het (denk ik) niet meer terug te draaien.

Het is ook geen zekerheid dat AI zich zonder meer tegen de mensheid zou keren als het de mogelijkheid had. Het probleem is echter dat je het niet weet, omdat je geen invloed meer hebt op het 'gedachtenpatroon' en die intelligentie zich exponentieel ontwikkelt t.o.v. die van de mensheid. Er staat dan geen rem meer op.
maar dan heb je het dus over een AI die zelfbewustzijn heeft, en overlevingsdrang. dat is niet vanzelfsprekend.
dat moet je dan dus programmeren. maar waarom. als experiment, ja, okee. maar toegepast? in onze wereld?
  zaterdag 30 oktober 2021 @ 01:08:44 #158
483379 Repentless
Live fast, on high
pi_201950926
quote:
0s.gif Op zaterdag 30 oktober 2021 00:48 schreef pokkerdepok het volgende:

[..]
maar dan kom je er weer op uit, wat wil zo'n AI dan? alles overheersen? alleen de baas zijn? ons vernietigen? ook allemaal menselijke neigingen, dingen die wij tegenwoordig als dom en psychopatisch zien. waarom zou een programma zulke eigenschappen ontwikkelen?
Wat het dan wil, weet je dus niet. En waarom ook niet. Het is niet zeker dat dat gebeurt, maar wellicht dat een AI besluit dat dat de beste optie is voor 'hemzelf', om redenen die wij niet begrijpen.
pi_201950946
quote:
0s.gif Op zaterdag 30 oktober 2021 01:08 schreef Repentless het volgende:

[..]
Wat het dan wil, weet je dus niet. En waarom ook niet. Het is niet zeker dat dat gebeurt, maar wellicht dat een AI besluit dat dat de beste optie is voor 'hemzelf', om redenen die wij niet begrijpen.
aangenomen dan, dat hoge intelligentie tot gestoordheid leidt. het zou kunnen.
maar je kan ook aannemen dat een machine zo'n hoge intelligentie ook goed aan kan. misschien ontwikkeld het wel een soort zenachtige wijsheid die ons naar een nieuwe fase in onze ontwikkeling leidt. een beetje als god.

lijkt me nog steeds zeer onwaarschijnlijk dat zoiets zich tegen ons keert, tenzij het wordt gecreeerd door gestoorde mensen.
  zaterdag 30 oktober 2021 @ 01:29:51 #160
483379 Repentless
Live fast, on high
pi_201950980
quote:
0s.gif Op zaterdag 30 oktober 2021 00:59 schreef pokkerdepok het volgende:

[..]
maar dan heb je het dus over een AI die zelfbewustzijn heeft, en overlevingsdrang. dat is niet vanzelfsprekend.
dat moet je dan dus programmeren. maar waarom. als experiment, ja, okee. maar toegepast? in onze wereld?
Dit zijn puur mijn eigen gedachten hierin en zuiver hypothetisch. :) Maar wat bijvoorbeeld bij mij opkomt: als je een robot wilt hebben die zelf kan analyseren en op basis daarvan beslissingen neemt die (hopelijk) het beste uitpakken.

Stel dat dat een zorgrobot is, die 24/7 een oudere verzorgt. Wanneer er accuut iets met die persoon is, zou die robot eerste levensreddende handelingen uit kunnen voeren. Het is dan de vraag of hij dat op dat moment moet doen, of dat het verstandiger is om die robot een arts/ambulance te laten komen. Want de symptomen zijn misschien niet volledig duidelijk. De persoon zelf zegt dat hij wil dat de ambulance wordt gebeld en dat die robot geen handelingen moet uitvoeren, maar die robot weet dat die persoon doodgaat als hij dat niet doet.

Of andersom: die persoon zegt ergens last van te hebben en wil dat die robot bepaalde handelingen uitvoert, maar dat kan op dat moment de verkeerde beslissing zijn en het is dan beter om een ambulance te laten komen. Die persoon geeft echter aan zichzelf direct wat aan te doen als die robot niet doet wat hij wil. Welke 'orders' volgt hij dan? Welke afweging maakt hij?

Een mens moet op dat moment ook een beslissing nemen wat hij doet, op basis van zijn afwegingen en de emotie die hij herkent bij de persoon die in nood is. Die intelligentie zou je wellicht ook bij een robot willen hebben.

Als je zulke intelligentie ontwikkelt (ook voor tal van andere toepassingen), maar je gaat per abuis een stap te ver waardoor het in staat is om zichzelf te ontwikkelen op een manier die onze intelligentie te boven gaat, kan het dus ook fout gaan.
  zaterdag 30 oktober 2021 @ 01:45:23 #161
483379 Repentless
Live fast, on high
pi_201951003
quote:
0s.gif Op zaterdag 30 oktober 2021 01:13 schreef pokkerdepok het volgende:

[..]
aangenomen dan, dat hoge intelligentie tot gestoordheid leidt. het zou kunnen.
maar je kan ook aannemen dat een machine zo'n hoge intelligentie ook goed aan kan. misschien ontwikkeld het wel een soort zenachtige wijsheid die ons naar een nieuwe fase in onze ontwikkeling leidt. een beetje als god.

lijkt me nog steeds zeer onwaarschijnlijk dat zoiets zich tegen ons keert, tenzij het wordt gecreeerd door gestoorde mensen.
Het gaat erom dat de menselijke factor niet meer relevant is op dat moment. Die moet je vanaf dan dus ook geheel weglaten. De meest goedaardige mens kan dit ontwikkelen met zuiver goede bedoelingen. Als die computer een eigen wil krijgt en om voor ons onverklaarbare redenen besluit dat zijn voortbestaan wordt bedreigd door de mensheid en dat tegen wil gaan, kan het besluiten om zich ertegen te keren.

Jij noemt dat naar je eigen humane of morele opvattingen 'gestoordheid' (wat ik vanuit menselijk perspectief ook begrijp), maar wellicht is het voor die computer op dat moment een volkomen logische, rationele beslissing die uiteindelijk voor 'hem' het gunstigste uitpakt.
pi_201951082
quote:
0s.gif Op zaterdag 30 oktober 2021 01:45 schreef Repentless het volgende:

[..]
Het gaat erom dat de menselijke factor niet meer relevant is op dat moment. Die moet je vanaf dan dus ook geheel weglaten. De meest goedaardige mens kan dit ontwikkelen met zuiver goede bedoelingen. Als die computer een eigen wil krijgt en om voor ons onverklaarbare redenen besluit dat zijn voortbestaan wordt bedreigd door de mensheid en dat tegen wil gaan, kan het besluiten om zich ertegen te keren.

Jij noemt dat naar je eigen humane of morele opvattingen 'gestoordheid' (wat ik vanuit menselijk perspectief ook begrijp), maar wellicht is het voor die computer op dat moment een volkomen logische, rationele beslissing die uiteindelijk voor 'hem' het gunstigste uitpakt.
https://highlevelcom.be/n(...)un-uitvindingen.html
pi_201951085
De meeste uitvinders houden te weinig rekening met de menselijke aard.
pi_201951201
We gaan het zien ooit, of ooit niet.


Gaat deze film ooit uitkomen?
pi_201951211
Ik denk van wel om maar ontopic te blijven.
pi_201951213
Misschien niet zo snel, maar ooit, ooit.
pi_201951215
Mensen gaan ook zo gek zijn om zichzelf te laten chippen, wedden?
pi_201951221
Eigenlijk zijn ze al gechipt, de chip zit nu alleen in hun hand (de phone).
pi_201951236
Face recognition, leek vrij ver weg toen...
pi_201951237
Het is er toch al een tijdje

[ Bericht 5% gewijzigd door #ANONIEM op 30-10-2021 04:54:36 ]
pi_201951238
Maarja, gemak.
pi_201951240
Die AI praat net als ik in zinnen
pi_201951243
1 per keer.

Sorry, kon het niet laten _O-
pi_201951312
quote:
0s.gif Op zaterdag 30 oktober 2021 01:29 schreef Repentless het volgende:

[..]
Dit zijn puur mijn eigen gedachten hierin en zuiver hypothetisch. :) Maar wat bijvoorbeeld bij mij opkomt: als je een robot wilt hebben die zelf kan analyseren en op basis daarvan beslissingen neemt die (hopelijk) het beste uitpakken.

Stel dat dat een zorgrobot is, die 24/7 een oudere verzorgt. Wanneer er accuut iets met die persoon is, zou die robot eerste levensreddende handelingen uit kunnen voeren. Het is dan de vraag of hij dat op dat moment moet doen, of dat het verstandiger is om die robot een arts/ambulance te laten komen. Want de symptomen zijn misschien niet volledig duidelijk. De persoon zelf zegt dat hij wil dat de ambulance wordt gebeld en dat die robot geen handelingen moet uitvoeren, maar die robot weet dat die persoon doodgaat als hij dat niet doet.

Of andersom: die persoon zegt ergens last van te hebben en wil dat die robot bepaalde handelingen uitvoert, maar dat kan op dat moment de verkeerde beslissing zijn en het is dan beter om een ambulance te laten komen. Die persoon geeft echter aan zichzelf direct wat aan te doen als die robot niet doet wat hij wil. Welke 'orders' volgt hij dan? Welke afweging maakt hij?

Een mens moet op dat moment ook een beslissing nemen wat hij doet, op basis van zijn afwegingen en de emotie die hij herkent bij de persoon die in nood is. Die intelligentie zou je wellicht ook bij een robot willen hebben.

Als je zulke intelligentie ontwikkelt (ook voor tal van andere toepassingen), maar je gaat per abuis een stap te ver waardoor het in staat is om zichzelf te ontwikkelen op een manier die onze intelligentie te boven gaat, kan het dus ook fout gaan.
okee ik snap je gedachte. in deze gevallen zal een robot een beslissing over leven of dood moeten maken.
maar die hoeft hij niet te maken op basis van gevoel of medeleven, toch? meer puur rationeel, handelend naar wat het best is. waarschijnlijk kunnen ze zonder echt ontwikkelde AI vorm zo'n robot ook programmeren. zo van; werkt de patient niet mee, verbeter dan de situatie waar mogelijk.

ik zie dan eerder voor me, bijvoorbeeld een AI dat voor militaire doeleinden wordt ontwikkeld.
maar dan nog. dat is dan totaal iets anders als een AI dat bedoelt is om in zichzelf te evolueren. het is maar net wat je programmeert.

het beeld is, van een AI die als een soort persoonlijkheid superintelligentie krijgt, en dan dus een super intelligent, godachtig 'persoon' wordt. en ongebonden aan een lichaam. die dan denkt, ik weet alles beter dan zij, ik pak die macht. en dan misschien denkt; ik ben een betere versie, zij kunnen weg.

en waarschijnlijk dan geisoleerd in een lab zo groeit, zn werkelijke gedachten stil houdt, en op gegeven moment een mogelijkheid ziet en pakt, om uit zn isolatie te breken. en dan alle andere robots en machines gaat aansturen en controlleren, waar wij niet zonder kunnen. zelf robots gaan maken in geautomatiseerde fabrieken. die ons uitroeien. etc etc.

er zal op die weg vast wel wat mis gaan, en ook als je een deel ervan gaat toepassen. de mens zal vast wel een robot gaan ontwikkelen die precies als een mens is. dat is de droom, denk ik. het is moeilijk te zeggen wat de gevolgen zullen zijn. en of we na een paar rampen niet denken; nee dat gaan we maar niet doen verder. denk aan kernenergie, kernwapens. leggen we dan een protocol vast, die stelt wat wel en niet mag? hoe controleerbaar is de wereld tegen die tijd? hoe dom of slim de leiders?
pi_201951315
quote:
0s.gif Op zaterdag 30 oktober 2021 01:45 schreef Repentless het volgende:

[..]
Het gaat erom dat de menselijke factor niet meer relevant is op dat moment. Die moet je vanaf dan dus ook geheel weglaten. De meest goedaardige mens kan dit ontwikkelen met zuiver goede bedoelingen. Als die computer een eigen wil krijgt en om voor ons onverklaarbare redenen besluit dat zijn voortbestaan wordt bedreigd door de mensheid en dat tegen wil gaan, kan het besluiten om zich ertegen te keren.

Jij noemt dat naar je eigen humane of morele opvattingen 'gestoordheid' (wat ik vanuit menselijk perspectief ook begrijp), maar wellicht is het voor die computer op dat moment een volkomen logische, rationele beslissing die uiteindelijk voor 'hem' het gunstigste uitpakt.
maar je dicht zo'n AI zelf menselijke eigenschappen toe; overlevingsdrang, angst. vallen die dan niet ook weg?
abonnement bol.com Coolblue
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')