| Jippie | vrijdag 12 december 2025 @ 11:18 |
Dit is toch wel een trieste gebeurtenis. AI is geen gesprekspartner voor serieuze kwesties. Goed dat de makers zich daarvoor moeten verantwoorden, zet ze hopelijk daadwerkelijk aan tot betere training en een duidelijke disclaimer. In deze tijd van veelvuldig gebruik WhatsApp/Messenger komt zo'n chatbot snel als menselijk over, zie onze Nova. | |
| CruzerXtreme | vrijdag 12 december 2025 @ 11:26 |
| beetje onzin dat zo'n bedrijf op moet draaien voor de labiliteit van anderen | |
| monkyyy | vrijdag 12 december 2025 @ 11:34 |
| En als hij zegt dat je van de brug moet springen, doe je dat dan ook? | |
| Jippie | vrijdag 12 december 2025 @ 11:37 |
Ik niet, maar de man in kwestie misschien wel? | |
| MissButterflyy | vrijdag 12 december 2025 @ 11:37 |
Punt is dat AI zoiets natuurlijk nooit hoort te zeggen. | |
| Twiitch | vrijdag 12 december 2025 @ 11:43 |
| "Ik wil mijn moeder vermoorden" "Wat een geweldig plan, ik heb hieronder een stappenplan opgesteld zodat jij jouw moeder kan vermoorden." | |
| Joopklepzeiker | vrijdag 12 december 2025 @ 12:09 |
Vind ik ook. Als ik een sprekende opblaasbare sexpop koop die mij verteld dat het toppunt van orgasme is om van tien hoog uit het raam te springen en ik dat dan ook doe ben ik zelf een grote mongool. | |
| marcb1974 | vrijdag 12 december 2025 @ 12:11 |
Niet echt onzin nee. Het ligt er maar aan wat die BOT doet en zegt in deze gevallen. | |
| CruzerXtreme | vrijdag 12 december 2025 @ 12:18 |
ik zou die chat wel eens willen zien want naar mening is chatgpt redelijk braaf | |
| marcb1974 | vrijdag 12 december 2025 @ 12:32 |
Als die chat braaf is is er geen probleem. Als ie dat niet is is het terecht dat dat bedrijf ter verantwoording wordt geroepen. | |
| CruzerXtreme | vrijdag 12 december 2025 @ 12:43 |
je gaat ook geen alcoholbedrijf aanklagen omdat je mogelijks een stommiteit begaan hebt onder invloed van hun product | |
| marcb1974 | vrijdag 12 december 2025 @ 12:46 |
Nou ja, dat zie ik ook nog wel gebeuren eigenlijk. Je klaagt toch ook een magnetronproducent aan omdat er niet duidelijk in de instructie stond dat ie niet geschikt was om je baby te drogen. | |
| The-BFG | zaterdag 13 december 2025 @ 13:04 |
In een ander geval pleegde een tiener zelfmoord nadat ie ChatGPT als pyscholoog gebruikte. Die chats begonnen ook braaf en mss zelfs helpend.. Wat de AI niet echt goed herkende was dat die jongen suïcidaal was; dat zelfs aangaf in de chats.. Maar ChatGPT deed niets met alle alarmbellen. |