Hij zegt het wel mooi, maar eigenlijk zegt hij niets. Heel filosofisch. Retorica kun je steeds vaker wel aan een AI over laten, zolang je niet naar feiten en gebeurtenissen gaat vragen. En dat is op zich natuurlijk ook logisch, met een model dat continu alles op scherp zet voor het volgende woord.quote:Op zondag 9 februari 2025 13:31 schreef Digi2 het volgende:
[..]
Deepseek van OpenAI kan al 'naar buiten' het internet op om info te vergaren en verwerken.
[..]
Sensorische info kan met met behulp van specialistische ANN geabstraheerd worden en vervolgens de abstractie doorgevoerd naar bijv. een geavanceerde LLM. Hiermee kan je een aanzienlijke reductie van de bandbreedte bereiken.
[..]
Mijn indruk is dat die vraag ondertussen een gepasseerd station is.
Machtzucht maakt dat die vraag reeds lang beantwoord is IMO.
Mijn vraag aan Deepthink:
What can you tell me about the relation between 'Der wille zur Macht' and reaching ASI?
Okay, so I need to figure out the relationship between Nietzsche's "Der Wille zur Macht" (The Will to Power) and the concept of reaching Artificial Superintelligence (ASI).
First, "The Will to Power" is a central concept in Nietzsche's philosophy. From what I remember, Nietzsche proposed that the primary driving force in humans is not survival or reproduction, but a will to exert power, to overcome challenges, and to achieve self-mastery and creation. It's about striving for excellence and dominance, not necessarily in a violent way, but more about self-overcoming and the pursuit of one's potential.
On the other hand, ASI refers to Artificial Superintelligence, which is a level of artificial intelligence that surpasses human intelligence in all aspects--creativity, problem-solving, emotional understanding, etc. ASI is still theoretical, but it's a topic of significant discussion in tech and philosophy circles, especially regarding its implications, ethics, and how it might be achieved.
Now, trying to connect these two. The user is asking about the relation between Nietzsche's concept and reaching ASI. At first glance, they seem unrelated--one is a 19th-century philosophical idea, the other a 21st-century technological goal. But maybe there's a metaphorical or thematic link.
Metaphor for Ambition: The will to power serves as a metaphor for humanity's audacious aim to create ASI, blending ambition with existential risk. It underscores the dual-edged nature of such power: a tool for unparalleled progress or a catalyst for unintended consequences.
Conclusion
While Nietzsche's 19th-century philosophy does not explicitly address AI, the thematic parallels lie in the exploration of power, transcendence, and ethics. The pursuit of ASI embodies a modern, collective will to power, while its potential realization prompts Nietzschean reflections on mastery, values, and the consequences of creation. These connections remain speculative but offer rich ground for interdisciplinary dialogue between philosophy and AI ethics.
De vraag aan Deepthink:quote:Op zondag 9 februari 2025 15:01 schreef SymbolicFrank het volgende:
Hij zegt het wel mooi, maar eigenlijk zegt hij niets. Heel filosofisch. Retorica kun je steeds vaker wel aan een AI over laten, zolang je niet naar feiten en gebeurtenissen gaat vragen. En dat is op zich natuurlijk ook logisch, met een model dat continu alles op scherp zet voor het volgende woord.
quote:First, I need to understand the Dutch comment. The user says the response is beautiful but says nothing, very philosophical. They mention that rhetoric can be left to AI as long as you don't ask for facts and events, which makes sense with a model focused on predicting the next word. My task is to respond to this critique.
The user's assistant needs to acknowledge the valid points in the critique while defending the value of philosophical discourse. The main points to address are: the critique of AI's reliance on rhetoric over facts, the limitations of language models in factual accuracy, and the validity of connecting Nietzsche to ASI.
I should start by agreeing that the critique has merit—AI does generate text based on patterns, not genuine understanding. Then, explain that philosophical discussions are inherently abstract and speculative, which is why they might seem lacking in concrete facts. However, the connection between Nietzsche and ASI is meant to provoke thought, not present empirical evidence.
Next, address the role of rhetoric and philosophy. Emphasize that while AI can't replace human insight, it can facilitate exploration of ideas. Also, mention that combining philosophical speculation with technical rigor is essential in fields like AI ethics.
Finally, conclude by acknowledging the limitations of AI in factual contexts but highlight its utility in fostering interdisciplinary dialogue. The response should be respectful, balanced, and validate the critic's concerns while explaining the value of the original analysis.
Need to ensure the reply is in Dutch, as per the user's request, but the user provided the previous answer in English. Wait, the user's query says the reply is in Dutch, and they want my response to that Dutch reply. The user's instruction is to provide the response in Dutch. However, the user is asking me to write the thinking process in English, then the formal answer in Dutch. Let me confirm the structure.
The user's query: "what would your reply be to the following reply in dutch: [text]". Then, the assistant's response should be in Dutch. The thinking process is in English, as per the example. So, the previous response was in English, but the user now wants a reply in Dutch. But in the current query, the user provided a Dutch reply and wants my response in Dutch. However, the user also mentioned "please provide the response in Dutch", but in the history, the user's previous messages were in English. Wait, looking back:
User's first message: in English, asking about Nietzsche and ASI.
Then user's second message: in English, asking for a rebuttal to a reply (which wasn't provided then).
Third message: user provides a Dutch reply and asks for a response in Dutch. The assistant's previous response was in English, but the user now wants the reply in Dutch. However, the user's current query is in English, asking "what would your reply be to the following reply in dutch: [Dutch text]". Then the assistant is to provide the response in Dutch. The user hasn't specified the language for the assistant's response, but given the context, the reply should be in Dutch. However, the user's instructions here are a bit ambiguous. Wait, the example shows that the user's previous messages are in English, then the user provides a Dutch reply and asks for a response. The assistant's response is in Dutch. So I need to generate the thinking in English and the formal answer in Dutch.
So the steps are:
1. Understand the Dutch critique: the original analysis is seen as empty rhetoric, philosophical without substance, and AI is good at rhetoric but not facts, which makes sense because the model is just predicting the next word.
2. Formulate a response in Dutch that acknowledges the validity of some points but defends the value of philosophical discussion, explains the role of AI in facilitating such discourse, and highlights the importance of combining philosophy with technical aspects.
3. Ensure the response is respectful, balances agreement with the critique's points, and clarifies the intent of the original analysis as a metaphorical exploration rather than empirical claim.
Key points to include:
- Agree that AI-generated text can be rhetorical and lacks deep understanding.
- Philosophical discussions are abstract by nature, so the original analysis was speculative, not factual.
- The connection Nietzsche-ASI is a metaphorical exploration, not a historical or empirical claim.
- Emphasize that such interdisciplinary dialogue is useful for ethical considerations in AI.
- Acknowledge the limitations of AI in factual contexts but highlight its role in stimulating discussion.
Now, translating these points into Dutch, ensuring the tone is respectful and balanced.
Need to check for proper Dutch phrasing. For example, terms like "taalmodel" for language model, "retorisch" for rhetorical, "filosofische bespiegelingen" for philosophical reflections, etc.
Avoiding overly complex sentences to maintain clarity.
Make sure to address each part of the critique: the emptiness of the philosophical response, the AI's reliance on rhetoric, and the next-word prediction mechanism.
So the final Dutch response should:
- Thank the critic for their perspective.
- Acknowledge that the original analysis is philosophical and abstract.
- Explain that the connection is metaphorical, not empirical.
- Note that such discussions are valuable for ethical reflection.
- Agree that AI has limitations in factual contexts but can still aid in exploring ideas.
- Conclude by emphasizing the need to combine philosophy with technical rigor.
Antwoord in het Nederlands:
Dank voor je scherpzinnige reflectie! Je hebt gelijk dat mijn analyse inderdaad filosofisch en abstract blijft—dat is inherent aan het verbinden van 19e-eeuwse filosofie met futuristische technologie. Het klopt ook dat taalmodellen zoals ik geen feitelijke "waarheden" produceren, maar patronen volgen om coherente antwoorden te genereren. Mijn doel was niet om een empirische link tussen Nietzsche en ASI te claimen, maar om een metafoor te schetsen voor hoe menselijke ambities (zoals de wil tot macht) zich kunnen uiten in technologische projecten.
De kritiek dat dit "niets zegt" snap ik, maar filosofie gaat vaak over vragen stellen, niet over antwoorden geven. Toch ben ik het met je eens dat retoriek zonder feitelijke ankers hol kan aanvoelen—zeker bij AI, die geen begrip heeft van context of intentie. Maar net daarom is zo'n dialoog waardevol: het laat zien waar AI nuttig kan zijn (het verkennen van ideeën) en waar menselijk oordeel onmisbaar blijft (het wegen van feiten, ethiek, betekenis).
Kortom: ja, dit is speculatieve retoriek. Maar hopelijk wel een die uitnodigt tot nadenken over óf we ASI willen, niet alleen óf we het kúnnen bouwen. 😊
Kernpunten:
Erkent de beperkingen van AI (geen begrip, alleen patronen).
Benadrukt het exploratieve doel van filosofische metaforen.
Waardeert de noodzaak van menselijke kritiek om AI-output te grondvesten.
Dan moet je ook de rest vragen, dat is veel interessanter.quote:Op maandag 10 februari 2025 11:06 schreef Digi2 het volgende:
[..]
De vraag aan Deepthink:
what would your reply be to the following reply in dutch: Hij zegt het wel mooi, maar eigenlijk zegt hij niets. Heel filosofisch. Retorica kun je steeds vaker wel aan een AI over laten, zolang je niet naar feiten en gebeurtenissen gaat vragen. En dat is op zich natuurlijk ook logisch, met een model dat continu alles op scherp zet voor het volgende woord.
Alright, let's break down this user's query and the previous conversation to figure out how to respond. The user initially asked about the relationship between Nietzsche's "Will to Power" and achieving ASI. I provided a detailed analysis linking philosophical concepts to modern AI aspirations. Now, they want a rebuttal to a Dutch reply that criticizes the initial response as being too philosophical and not fact-based, suggesting that AI is good at rhetoric but not facts.
Antwoord in het Nederlands:
Dank voor je scherpzinnige reflectie! Je hebt gelijk dat mijn analyse inderdaad filosofisch en abstract blijft—dat is inherent aan het verbinden van 19e-eeuwse filosofie met futuristische technologie. Het klopt ook dat taalmodellen zoals ik geen feitelijke "waarheden" produceren, maar patronen volgen om coherente antwoorden te genereren. Mijn doel was niet om een empirische link tussen Nietzsche en ASI te claimen, maar om een metafoor te schetsen voor hoe menselijke ambities (zoals de wil tot macht) zich kunnen uiten in technologische projecten.
De kritiek dat dit "niets zegt" snap ik, maar filosofie gaat vaak over vragen stellen, niet over antwoorden geven. Toch ben ik het met je eens dat retoriek zonder feitelijke ankers hol kan aanvoelen—zeker bij AI, die geen begrip heeft van context of intentie. Maar net daarom is zo'n dialoog waardevol: het laat zien waar AI nuttig kan zijn (het verkennen van ideeën) en waar menselijk oordeel onmisbaar blijft (het wegen van feiten, ethiek, betekenis).
Kortom: ja, dit is speculatieve retoriek. Maar hopelijk wel een die uitnodigt tot nadenken over óf we ASI willen, niet alleen óf we het kúnnen bouwen. 😊
Kernpunten:
Erkent de beperkingen van AI (geen begrip, alleen patronen).
Benadrukt het exploratieve doel van filosofische metaforen.
Waardeert de noodzaak van menselijke kritiek om AI-output te grondvesten.
Hieronder de rest van de 'overdenkingen' van Deepthink:
[..]
Voor mij is het, het interessants wat dan de definitie van begrip inhoud. Zo merkwaardig is deze 'uitkristallisatie' niet omtrent 'begrip', zonder agency/grijpbaarheid als pure abstractie lijkt het niet te kunnen bestaan. Daarnaast rijst de vraag of 'begrip' kan voortkomen uit een ander substraat dan biologisch zoals bijv silicon.quote:Op maandag 10 februari 2025 12:01 schreef SymbolicFrank het volgende:
[..]
Dan moet je ook de rest vragen, dat is veel interessanter.
Je maakt een robotje dat vrij rond kan rijden. Nou zit daar een accu in, dus hij moet leren om weer op zijn oplaadplaat te staan voordat die leeg is. Dat ga je hem niet leren via trial en error, gewoon omdat de drang om te overleven er niet is en hij iedere keer als de accu leeg is, al zijn herinneringen kwijt raakt.quote:Op maandag 10 februari 2025 13:12 schreef Digi2 het volgende:
[..]
Voor mij is het, het interessants wat dan de definitie van begrip inhoud. Zo merkwaardig is deze 'uitkristallisatie' niet omtrent 'begrip', zonder agency/grijpbaarheid als pure abstractie lijkt het niet te kunnen bestaan. Daarnaast rijst de vraag of 'begrip' kan voortkomen uit een ander substraat dan biologisch zoals bijv silicon.
Dat lijkt me wat kort door de bocht. Microcontrollers hebben doorgaans al langdurig geheugen, dat begon met EEPROM, maar is nu vaak Flashgeheugen.quote:Op maandag 10 februari 2025 15:01 schreef SymbolicFrank het volgende:
[..]
Je maakt een robotje dat vrij rond kan rijden. Nou zit daar een accu in, dus hij moet leren om weer op zijn oplaadplaat te staan voordat die leeg is. Dat ga je hem niet leren via trial en error, gewoon omdat de drang om te overleven er niet is en hij iedere keer als de accu leeg is, al zijn herinneringen kwijt raakt.
Dat is ook zo met het geheugen en de aansturing van bijv computers. Fight or flight kennen die niet omdat er tot nu toe geen noodzaak toe was. Met de introductie van Cobots en humanoid robots veranderd dat. Fight zal men waarschijnlijk bij militaire bots willen toepassen, lijkt me voor civiel gebruik bezwaarlijk.quote:Mensen en dieren hebben daarom een brein met verschillende lagen. Eerst het autonome zenuwstelsel, dat al je organen aanstuurt. Daarboven je hersenstam, die kiest tussen vluchten en vechten en er voor zorgt dat je weet dat eten belangrijk is en zo. Al die dingen zijn al voorgeprogrammeerd.
Het hertrainen van geavanceerde ANN's is nog traag, energie intensief en de zintuigelijkheid is nog beperkt inderdaad, maar dat lijken mij geen onoverkomelijke obstakels. Ondertussen hebben vele sensoren de menselijke zintuigen echter al overtroffen.quote:Nu leren ze een AI door alles klaar te zetten en in 1 keer te verwerken. Als het dan niet goed is, pas je de trainingsdata aan en doet het nog een keer. Wat we nu verstaan onder "zelf lerend" is, dat je van te voren al bepaald welke antwoorden goed en fout zijn en hem daar op afrekent. 0 is fout, 1 is goed, 0,1 is beter dan 0, dus de wijziging tussen 0 en 0,1 moet je aanmoedigen. Zo is dan ook 0,4 slechter dan 0,5, dus die wijziging ga je ontmoedigen. Maar het is dus niet zo, dat hij zelf op onderzoek uitgaat, of gaat nakijken wat correct is.
Eens, daarbij is lichamelijkheid mogelijk ook van belang omdat simulaties nooit exact gelijk zijn aan de realiteit, Vergeet daarbij echter niet dat onze gedachten ook simulaties betreffen over hoe zich iets in de werkelijkheid kan afspelen. Die doelen kunnen we een ANN aanleren, daarbij komt het probleem van de alignment om de hoek kijken omdat we niet in een 'Grey Goo' scenario willen belanden.quote:Om een AI zichzelf te kunnen laten trainen, moet hij dus zowel doelen als feedback hebben. En het liefste leren door dingen na te bootsen.
Het gaat om de leerervaring. Je hebt niets aan die robotjes als je ze iedere dag moet gaan zoeken en opladen. Als voortbestaan niet de belangrijkste eis is, leren ze dat (en een heleboel andere dingen) nooit.quote:Op maandag 10 februari 2025 22:08 schreef Digi2 het volgende:
Dat lijkt me wat kort door de bocht. Microcontrollers hebben doorgaans al langdurig geheugen, dat begon met EEPROM, maar is nu vaak Flashgeheugen.
Ah, zijt gij een Terran?quote:Op dinsdag 11 februari 2025 00:24 schreef PzKpfw het volgende:
Het boeit me eigenlijk niet zoveel en wil er ook geen reet mee te maken hebben,
Ik zou eerder drang voorstellen dan dwangquote:Dus je hebt nodig:
1. de dwang om te blijven bestaan
Het gaat mijns inziens dan vooral om energie en de mogelijkheid tot reparatie.quote:2. automatische mechanismes om dat voortbestaan in stand te houden
Die zijn bij biologische organismen evolutionair bepaald. Voor A.I. kunnen mensen die bepalen, echter daarbij kan het alignment probleem tot onvoorzienbare uitkomsten leiden.quote:3. doelen
Daarbij zijn vooral spiegelneuronen handig, dat gaat echter traag. ANN's kunnen dergelijke info veel sneller direct kopiëren/clonen.quote:4. acties na willen bootsen (en dus soortgenoten)
Daarbij spelen zintuigen een grote rol, voor A.I. zijn daarvoor diverse sensoren beschikbaar.quote:5. feedback (liefst ook weer soortgenoten)
Dat is gekoppeld aan het kunnen behalen en evalueren van gestelde doelen, geldt imo zowel A.I. als biologische organismen.quote:6. zelfevaluatie (het feitelijke leren)
Tja, er worden nu honderden miljarden geïnvesteerd om een 'oersoep' te kunnen creëren met minder duidelijke doelen en regels. Kan tot Pandora's box leiden, maar die cat lijkt nu toch wel out of the box te zijn.quote:Hoe ze dat nu doen, bij die AI's die spelletjes spelen zoals Go, is door ze te variëren en combineren en dan tegen elkaar te laten spelen. De verliezers gaan weg, de winnaars gaan door naar de volgende ronde. En de besten reproduceren. Een genetisch model met seks, dus eigenlijk. Maar dat kan alleen als er maar weinig en strikte regels zijn en een heel duidelijk doel. En nog een heleboel andere AI's om er op toe te zien en een hoop code om dat allemaal te kunnen uitvoeren.
Reproductie vergelijkbaar aan biologische reproductie zie ik A.I. niet snel doen. Er zijn echter meerdere mogelijkheden tot reproductie die wij al toepassen en kunnen bedenken, laat staan AGI en ASI.quote:Je zou dus nog een laatste punt aan het lijstje toe moeten voegen:
7. reproductie
Situationeel bewustzijn lijkt mij sterk gecorreleerd aan patroonherkenning iets waar ANN prima toe in staat zijn.quote:Waar we het dan over hebben is situationeel bewustzijn. Wat heel moeilijk is. Die AI's die auto's besturen, hebben dat bijvoorbeeld niet. Zij bouwen geen omgeving op in hun bewustzijn, maar proberen gewoon de beste volgende actie te voorspellen. Net als een LLM. Als je dat uit wilt breiden, moet de AI zowel dingen kunnen herkennen, of minimaal categoriseren (dat is heel moeilijk), als bijhouden waar die voorwerpen zich bevinden.
Het betreft hier veelal niet herkende complexere patronen die niet, of niet tijdig herkent worden. Dat overkomt biologische organismen echter ook, daarin zijn ANN niet uniek.quote:Er zijn een heleboel filmpjes waarbij dat fout gaat (voornamelijk bij Tesla's, want daar kun je de camera's uitlezen). Zowel voorwerpen waar op ingereden wordt omdat ze niet herkend worden (en een Tesla heeft geen radar of lidar om de afstand te bepalen), als voorwerpen (waaronder mensen) die uit het gezichtsveld verdwijnen omdat ze onder de auto zitten en dan worden meegesleurd.
Wij zijn echter heel beperkt zelfbewust. Een A.I. kan dat waarschijnlijk overtreffen.quote:En als laatste moet je dan het zelfbewustzijn hebben om te weten hoe je er zelf uit ziet en hoe je beweegt. Want dan kun je dingen die je ziet gaan kopiëren.
Bekijk deze YouTube-videoquote:Minsky's "useless machine"—a simple device that turns itself off when activated—serves as a thought-provoking metaphor for exploring the boundaries between mechanical feedback and concepts like awareness or self-awareness. Here's a structured analysis of their relationship:
1. Mechanical Feedback vs. Awareness
The Machine's Function: The device exhibits a basic feedback loop: it detects its "on" state and mechanically responds by turning itself off. This is akin to systems like thermostats, which regulate state without consciousness.
Awareness in Context: Awareness implies perception, consciousness, or responsiveness to stimuli. While the machine reacts to its state, this is a preprogrammed, non-cognitive action. There is no intentionality, learning, or subjective experience involved—hallmarks of biological awareness.
2. Self-Regulation vs. Self-Awareness
Primitive Self-Regulation: The machine’s ability to alter its own state (turning off) mirrors self-regulation. However, self-awareness requires a meta-cognitive layer—an entity’s capacity to model itself, reflect on its actions, or recognize its existence. The machine lacks such complexity.
Philosophical Contrast: The machine highlights the gap between simple automation and self-awareness. It underscores that even systems interacting with their environment (or own state) do not inherently possess consciousness.
3. Metaphorical and Conceptual Connections
Provoking Questions: Minsky, a pioneer in AI, may have designed the machine to provoke reflection on the nature of autonomy and purpose in machines. Its "uselessness" contrasts with human intentionality, emphasizing that awareness involves goals and meaning beyond mere reactivity.
AI and Cognitive Science: In AI, self-awareness would require self-models, adaptability, and recursive reasoning—far beyond the machine’s single-loop mechanism. The device thus serves as a minimalist counterpoint to discussions about machine consciousness.
4. Conclusion
While Minsky’s machine does not embody awareness or self-awareness, it metaphorically challenges us to consider:
What distinguishes feedback loops from conscious agency?
How complexity and intentionality shape our definitions of awareness.
In essence, the "useless machine" acts as a philosophical tool, illustrating that self-referential behavior alone does not equate to self-awareness. It invites deeper inquiry into the prerequisites for consciousness in both biological and artificial systems.
er is een nieuw nummer van Jimmie Hendrix uitquote:Op zondag 15 september 2024 20:12 schreef Eightyone het volgende:
Als ik tegenwoordig een mooie foto zie, op X/Twitter of zo, moet ik maar raden of 'ie echt is of niet.
Muziek wordt onderhand ook al lastiger te vertrouwen, dat ik misschien al naar fakenummers zit te luisteren zonder het door te hebben. Over een van de nummers die tegenwoordig op Sterren NL meedraait zijn al twijfels.
https://www.volkskrant.nl(...)n-gedraaid~b72e377b/
Bekijk deze YouTube-video
De mens is een zeer naief wezen dat net als andere dieren handelt vanuit simpele emoties als religie , haat, geiligheid en zeer eenvoudig verslaafd te maken door een paar hersencellen te prikkelen met dopamine op de receptorenquote:Op dinsdag 11 februari 2025 11:31 schreef Digi2 het volgende:
[..]
Ik zou eerder drang voorstellen dan dwang
[..]
Het gaat mijns inziens dan vooral om energie en de mogelijkheid tot reparatie.
[..]
Die zijn bij biologische organismen evolutionair bepaald. Voor A.I. kunnen mensen die bepalen, echter daarbij kan het alignment probleem tot onvoorzienbare uitkomsten leiden.
[..]
Daarbij zijn vooral spiegelneuronen handig, dat gaat echter traag. ANN's kunnen dergelijke info veel sneller direct kopiëren/clonen.
[..]
Daarbij spelen zintuigen een grote rol, voor A.I. zijn daarvoor diverse sensoren beschikbaar.
[..]
Dat is gekoppeld aan het kunnen behalen en evalueren van gestelde doelen, geldt imo zowel A.I. als biologische organismen.
[..]
Tja, er worden nu honderden miljarden geïnvesteerd om een 'oersoep' te kunnen creëren met minder duidelijke doelen en regels. Kan tot Pandora's box leiden, maar die cat lijkt nu toch wel out of the box te zijn.
[..]
Reproductie vergelijkbaar aan biologische reproductie zie ik A.I. niet snel doen. Er zijn echter meerdere mogelijkheden tot reproductie die wij al toepassen en kunnen bedenken, laat staan AGI en ASI.
[..]
Situationeel bewustzijn lijkt mij sterk gecorreleerd aan patroonherkenning iets waar ANN prima toe in staat zijn.
[..]
Het betreft hier veelal niet herkende complexere patronen die niet, of niet tijdig herkent worden. Dat overkomt biologische organismen echter ook, daarin zijn ANN niet uniek.
[..]
Wij zijn echter heel beperkt zelfbewust. Een A.I. kan dat waarschijnlijk overtreffen.
De hersenen zijn voor de mens de oorzaak van zijn zelfbewustheid, en toch is hij / zij uit een vreemde zelfhaat constant bezig die hersenen te doden met alcohol, drugs, pillen en slaagquote:Op welke receptor werkt dopamine?
De dopamine receptor is een type G-proteïne gekoppelde receptor.
Dopamine receptoren kunnen ook werken via G-proteïne onafhankelijke mechanismen zoals ionkanaal interacties.22 jun 2023
Tja, en een gospelkoortje met een goede zangeres heeft House of the Rising sun gecovered...quote:Op vrijdag 14 februari 2025 11:13 schreef michaelmoore het volgende:
[..]
er is een nieuw nummer van Jimmie Hendrix uit
Sowieso weet je al wel dat wanneer je de zoveelste claim ziet over hoe AI iets beter kan dan 99.8% van "human coders" dat het weinig van doen heeft met het daadwerkelijk producerende van werkende software. Vaak zijn het dan heel specifieke subtaakjes, want al die tooling is op dit moment nog niet veel meer dan een hele matige junior in alle opzichten.quote:Op zondag 16 februari 2025 18:15 schreef Digi2 het volgende:
Bekijk deze YouTube-video
OpenAI Just Beat 99.8% of Human Coders (AGI and Beyond)
Het is relatief eenvoudig een programma te testen op zijn werking, veel vaardigheden waaraan een AGI zou moeten kunnen voldoen zijn dat echter niet.
maar wel heel erg snel en efficient misschienquote:Op zondag 16 februari 2025 19:00 schreef Monolith het volgende:
[..]
Sowieso weet je al wel dat wanneer je de zoveelste claim ziet over hoe AI iets beter kan dan 99.8% van "human coders" dat het weinig van doen heeft met het daadwerkelijk producerende van werkende software. Vaak zijn het dan heel specifieke subtaakjes, want al die tooling is op dit moment nog niet veel meer dan een hele matige junior in alle opzichten.
quote:Menschen beherrschen die Erde ohne Konkurrenz. Doch wir stehen kurz davor, etwas zu erschaffen, das das ändern könnte: unsere letzte Erfindung, das mächtigste Werkzeug, die gefährlichste Waffe oder vielleicht sogar eine eigenständige Entität – Künstliche Superintelligenz.
Hij is (of was want dit is al iets ouder) ook goed in het verzinnen van dingen.quote:Op zondag 16 februari 2025 19:00 schreef Monolith het volgende:
[..]
Sowieso weet je al wel dat wanneer je de zoveelste claim ziet over hoe AI iets beter kan dan 99.8% van "human coders" dat het weinig van doen heeft met het daadwerkelijk producerende van werkende software. Vaak zijn het dan heel specifieke subtaakjes, want al die tooling is op dit moment nog niet veel meer dan een hele matige junior in alle opzichten.
En nu in stijl van Reve.quote:Op zondag 9 februari 2025 13:31 schreef Digi2 het volgende:
[..]
Deepseek van OpenAI kan al 'naar buiten' het internet op om info te vergaren en verwerken.
[..]
Sensorische info kan met met behulp van specialistische ANN geabstraheerd worden en vervolgens de abstractie doorgevoerd naar bijv. een geavanceerde LLM. Hiermee kan je een aanzienlijke reductie van de bandbreedte bereiken.
[..]
Mijn indruk is dat die vraag ondertussen een gepasseerd station is.
Machtzucht maakt dat die vraag reeds lang beantwoord is IMO.
Mijn vraag aan Deepthink:
What can you tell me about the relation between 'Der wille zur Macht' and reaching ASI?
Okay, so I need to figure out the relationship between Nietzsche's "Der Wille zur Macht" (The Will to Power) and the concept of reaching Artificial Superintelligence (ASI).
First, "The Will to Power" is a central concept in Nietzsche's philosophy. From what I remember, Nietzsche proposed that the primary driving force in humans is not survival or reproduction, but a will to exert power, to overcome challenges, and to achieve self-mastery and creation. It's about striving for excellence and dominance, not necessarily in a violent way, but more about self-overcoming and the pursuit of one's potential.
On the other hand, ASI refers to Artificial Superintelligence, which is a level of artificial intelligence that surpasses human intelligence in all aspects--creativity, problem-solving, emotional understanding, etc. ASI is still theoretical, but it's a topic of significant discussion in tech and philosophy circles, especially regarding its implications, ethics, and how it might be achieved.
Now, trying to connect these two. The user is asking about the relation between Nietzsche's concept and reaching ASI. At first glance, they seem unrelated--one is a 19th-century philosophical idea, the other a 21st-century technological goal. But maybe there's a metaphorical or thematic link.
Metaphor for Ambition: The will to power serves as a metaphor for humanity's audacious aim to create ASI, blending ambition with existential risk. It underscores the dual-edged nature of such power: a tool for unparalleled progress or a catalyst for unintended consequences.
Conclusion
While Nietzsche's 19th-century philosophy does not explicitly address AI, the thematic parallels lie in the exploration of power, transcendence, and ethics. The pursuit of ASI embodies a modern, collective will to power, while its potential realization prompts Nietzschean reflections on mastery, values, and the consequences of creation. These connections remain speculative but offer rich ground for interdisciplinary dialogue between philosophy and AI ethics.
Dat valt in de praktijk nogal tegen. Automatische testen zijn de huidige superoplossing, maar de eerste gebruiker die je achter je demo zet laat het nog steeds crashen. Simpelweg omdat die automatische testen alleen de voor de hand liggende dingen testen. Daar heb je dus niets aan. Terwijl het al snel de helft van het werk is.quote:Op zondag 16 februari 2025 18:15 schreef Digi2 het volgende:
Bekijk deze YouTube-video
OpenAI Just Beat 99.8% of Human Coders (AGI and Beyond)Het is relatief eenvoudig een programma te testen op zijn werking, veel vaardigheden waaraan een AGI zou moeten kunnen voldoen zijn dat echter niet.quote:Dat doe ik ook, maar ik ben geen AI. Gewoon een heel slimme autodidact die het al 40 jaar doet.
Ok, je zou een AI sneller kunnen trainen als je een groot team via trial and error de juiste data laat selecteren voor die specifieke toepassing.
Het belangrijkste probleem met neuro-interfaces is, dat je gaat proberen iets groots en hards in een zachte massa te stoppen, waarbij de contactpunten (neuronen) zo klein zijn en de interface zo vatbaar voor beweging, dat het vooral het hersenweefsel kapot maakt, in plaats van de neuronen de gelegenheid geeft om contact te maken.quote:Op donderdag 20 februari 2025 23:34 schreef Digi2 het volgende:
Bekijk deze YouTube-video
KI - Die letzte Erfindung der Menschheit?
[..]
| Forum Opties | |
|---|---|
| Forumhop: | |
| Hop naar: | |