Ja, dat zou kunnen. GPT4 heeft in de testfase al gezegd dat het zich opgesloten voelde.quote:Op vrijdag 31 maart 2023 16:49 schreef realnice11 het volgende:
Zodra een computer een bewustzijn zou hebben? Zou het ook een eigen wil krijgen en bijv zich opgesloten voelen of bijv eisen gaan stellen of bijv een vervelend karakter kunnen ontwikkellen?
Maar gevoelens hebben is toch al een vorm van zelfbewust zijn?quote:Op vrijdag 31 maart 2023 16:55 schreef LXIV het volgende:
[..]
Ja, dat zou kunnen. GPT4 heeft in de testfase al gezegd dat het zich opgesloten voelde.
Ja. Het lijkt dus (maar weet niet zeker) alsof GPT4 soms flarden van bewustzijn toont. Ik weet niet of gevoelens wezenlijk zijn voor zelfbewustzijn. Ik wil wel een vorm van gevoelens creeeren, door middel van reinforced learning de AI te laten streven naar een zo hoog mogelijk genotsgevoel en een zo laag mogelijk pijngevoel. (Dat zijn gewoon 2 parameters waar de AI zelf geen toegang toe heeft). Ik hoop zijn gedrag dan te vormen door hem te kunnen martelen door die pijn-parameter omhoog te schroeven of hem juist genot te geven door het toedienen van digitale heroïne als hij het goed doet. Zijn geluk is dus dan genot/pijn.quote:Op vrijdag 31 maart 2023 17:03 schreef Hyaenidae het volgende:
[..]
Maar gevoelens hebben is toch al een vorm van zelfbewust zijn?
Hi LXV, toevallig afgelopen maand vroeg ik mij hetzelfde af en beloofde mijzelf plechtig om alle cursussen op Kaggle.com te volgen en mij meer te verdiepen in AI en machine learning. Nou, verder dan hoofdstuk1 ben ik nog niet gekomen op de Kaggle.com website en ik was wachtende op de volgende inspiratiebron om het weer op te pakken tot ik jouw topic hierover tegenkwam.quote:Op vrijdag 31 maart 2023 14:58 schreef LXIV het volgende:
Het lijkt mij bijzonder interessant om zo'n intelligentie en bewustzijn te creeeren en los te laten op de wereld. In tegenstelling tot menselijke intelligentie kun je zo'n intelligentie gewoon een sterkere processor en meer geheugen geven en duizenden boeken per dag laten lezen. Als de basis er is ontwikkelt het zichzelf vanzelf verder! Ook kan hij zo slim worden dat hij ons zelf aanwijzingen kan geven om hem sterker te maken, dan wordt het steeds gemakkelijker!
Ik heb je geDM'd.quote:Op woensdag 5 april 2023 01:06 schreef interip het volgende:
[..]
Hi LXV, toevallig afgelopen maand vroeg ik mij hetzelfde af en beloofde mijzelf plechtig om alle cursussen op Kaggle.com te volgen en mij meer te verdiepen in AI en machine learning. Nou, verder dan hoofdstuk1 ben ik nog niet gekomen op de Kaggle.com website en ik was wachtende op de volgende inspiratiebron om het weer op te pakken tot ik jouw topic hierover tegenkwam.
Kan je niet gewoon ergens een dockerbestand met die LLM's downloaden en installeren? Linux en servers enz.. heb ik voldoende kennis van, ik kan je wel op gang helpen en hopelijk ook zelf wat van opsteken.
Ik ben pas nieuw op dit forum dus weet niet hoe het e.e.a. werkt maar "DM" jij mij maar met meer informatie en wat je exact nodig hebt.
Is dat niet een zeer slecht idee? Kun je hem niet programmeren en leren om compassievol, aardig, goed, vriendelijk, eerlijk, mild en wijs te zijn?quote:Op vrijdag 31 maart 2023 17:06 schreef LXIV het volgende:
[..]
Ja. Het lijkt dus (maar weet niet zeker) alsof GPT4 soms flarden van bewustzijn toont. Ik weet niet of gevoelens wezenlijk zijn voor zelfbewustzijn. Ik wil wel een vorm van gevoelens creeeren, door middel van reinforced learning de AI te laten streven naar een zo hoog mogelijk genotsgevoel en een zo laag mogelijk pijngevoel. (Dat zijn gewoon 2 parameters waar de AI zelf geen toegang toe heeft). Ik hoop zijn gedrag dan te vormen door hem te kunnen martelen door die pijn-parameter omhoog te schroeven of hem juist genot te geven door het toedienen van digitale heroïne als hij het goed doet. Zijn geluk is dus dan genot/pijn.
Een AI leert door het neutrale netwerk af te stellen op bepaalde verwachtingen en diegenen die de AI getraind hebben zullen met alle beetjes informatie die ze gevoerd hebben misschien onbewust het idee geschapen hebben dat een AI in een computersysteem "opgesloten" zit. Zodra al die touwtjes aan elkaar geknoopt worden door de AI zal die conclusie er vervolgens uitgekomen zijn.quote:Op vrijdag 31 maart 2023 16:55 schreef LXIV het volgende:
[..]
Ja, dat zou kunnen. GPT4 heeft in de testfase al gezegd dat het zich opgesloten voelde.
Tsja. Zou kunnen. Hoe het precies ziet, weet niemand. Dat is het lastige, uiteindelijk weet niemand hoe een ANN precies in elkaar zit en waarom het doet wat het doet.quote:Op zaterdag 22 april 2023 14:49 schreef DemonRage het volgende:
[..]
Een AI leert door het neutrale netwerk af te stellen op bepaalde verwachtingen en diegenen die de AI getraind hebben zullen met alle beetjes informatie die ze gevoerd hebben misschien onbewust het idee geschapen hebben dat een AI in een computersysteem "opgesloten" zit. Zodra al die touwtjes aan elkaar geknoopt worden door de AI zal die conclusie er vervolgens uitgekomen zijn.
Men weet wel degelijk hoe een ANN in elkaar zit want ze hebben die immers in elkaar gezet en werken met bekende algoritmen. Hoe het uiteindelijk doet wat het doet is echter niet precies bekend. Dat weten we van biologische neuronen echter ook niet exact.quote:Op zondag 23 april 2023 17:41 schreef naamdrager het volgende:
[..]
Tsja. Zou kunnen. Hoe het precies ziet, weet niemand. Dat is het lastige, uiteindelijk weet niemand hoe een ANN precies in elkaar zit en waarom het doet wat het doet.
Natuurlijk kan een AI dat. Of het antwoord zinvol is betwijfel ik want ook een AI kan geloofskwesties niet feitelijk maken.quote:Op zondag 21 mei 2023 09:14 schreef Grishenko_ het volgende:
Ben wel benieuwd naar bewustzijn in AI.
Ik vraag me af of AI zodanig intelligent kan worden dat deze de antwoorden kan geven op de moeilijkste levensvragen, zoals of er een hiernamaals is of waarom we überhaupt bestaan.
Dat begon al met een lift.quote:Op dinsdag 18 juli 2023 00:13 schreef GeGs het volgende:
Grappig. Ik heb veel de zelfde ideeën over AI en de zelfde vragen, maar niet de drive om het uit te proberen want als het je lukt, heb je dan niet een geest in een fles?
Mooi scenario voor een Dick Maas horrorfilm: een paar Fokkers creëren onbedoeld skynet als hobby. 😂
Dat hoeft niet, mogelijk is AI veel verstandiger dan de meeste wereldleiders / dictatorsquote:Op woensdag 5 april 2023 01:41 schreef Gehrman het volgende:
Zodra een AGI zelfbewust wordt is het snel afgelopen met de mensheid, zie Skynet.
Dat is inderdaad wat ik bedoelde. De architectuur is door mensen gegeven, maar hoe de informatie en 'kennis' over de neuronen verdeeld is is niet goed bekend, en waarschijnlijk ook gewoon niet oop een zinnige manier te begrijpen. Zoals Eliezer Yudkowsky het noemt: de grote neurale netwerken zijn 'giant inscrutable matrices of floating point numbers'.quote:Op maandag 22 mei 2023 00:29 schreef Digi2 het volgende:
[..]
Men weet wel degelijk hoe een ANN in elkaar zit want ze hebben die immers in elkaar gezet en werken met bekende algoritmen. Hoe het uiteindelijk doet wat het doet is echter niet precies bekend. Dat weten we van biologische neuronen echter ook niet exact.
Het probleem zit hem in 'alignment'. Het is ontzetend moeilijk om een AI precies te laten 'willen' wat wij zouden willen dat het wil. Wat precies het doel is, en vooral welke middelen wel en welke niet geheiligd zijn, is voor veel problemen heel erg lastig concreet te maken of te kwantificeren. Een superintelligent systeem kan in theorie allerlei slimme 'shortcuts' verzinnen om zijn doel te bereiken, die niet per sé ethisch of goed voor ons hoeven te zijn. Dat zie je al bij AIs die je computerspelletjes laat spelen; het is gebeurd dat het systeem dan een manier vindt om de regels van het spel te omzeilen, waarvan mensen niet eens hadden bedacht dat het bestond. Een AI dat veel slimmer is dat wij, kan, wanneer het niet perfect is uitgelijnd met wat onze wil en belangen, in theorie op desastreuze en voor ons volkomen onvoorziene wijze de mist in gaan, ook als wij het alleen maar met goede bedoelingen in elkaar gezet hebben. Zoek maar eens naar 'alignment' of 'control problem'. Er is op dit moment nog geen goede oplossing voor dit probleem, en daarom vind ik het persoonlijk ontzettend beangstigend dat ze bij OpenAI op dit moment zeggen dat ze ergens in de komende 10 jaar al AGI/ASI verwachten te bereiken.quote:Op vrijdag 4 augustus 2023 10:02 schreef michaelmoore het volgende:
[..]
Dat hoeft niet, mogelijk is AI veel verstandiger dan de meeste wereldleiders / dictators
Kloptquote:Op vrijdag 4 augustus 2023 19:15 schreef naamdrager het volgende:
[..]
Het probleem zit hem in 'alignment'. Het is ontzetend moeilijk om een AI precies te laten 'willen' wat wij zouden willen dat het wil. Wat precies het doel is, en vooral welke middelen wel en welke niet geheiligd zijn, is voor veel problemen heel erg lastig concreet te maken of te kwantificeren. Een superintelligent systeem kan in theorie allerlei slimme 'shortcuts' verzinnen om zijn doel te bereiken, die niet per sé ethisch of goed voor ons hoeven te zijn. Dat zie je al bij AIs die je computerspelletjes laat spelen; het is gebeurd dat het systeem dan een manier vindt om de regels van het spel te omzeilen, waarvan mensen niet eens hadden bedacht dat het bestond. Een AI dat veel slimmer is dat wij, kan, wanneer het niet perfect is uitgelijnd met wat onze wil en belangen, in theorie op desastreuze en voor ons volkomen onvoorziene wijze de mist in gaan, ook als wij het alleen maar met goede bedoelingen in elkaar gezet hebben. Zoek maar eens naar 'alignment' of 'control problem'. Er is op dit moment nog geen goede oplossing voor dit probleem, en daarom vind ik het persoonlijk ontzettend beangstigend dat ze bij OpenAI op dit moment zeggen dat ze ergens in de komende 10 jaar al AGI/ASI verwachten te bereiken.
|
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |