SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.Nu zit in mijn vraag reeds een richting van een mogelijk antwoord verborgen maar ook bij het stellen van de vraag zonder de richting kwam Chatgpt tot eenzelfde type antwoord. Het kan daarmee in mijn optiek een prima hulpmiddel zijn om je kennis van reeds bestaande data te verhogen zodat indien hier naar gerefereerd wordt in iemands reactie je notie kunt hebben waar het betrekking op heeft maar in mijn ogen zou het de voorkeur blijven hebben om je eigen gedachten op het virtuele papier te blijven zetten.
Wat een ongelofelijke hypocriet ben jij. Gatverdamme. Dit is een AI-gegenereerde tekst. Ik neem jou echt niet meer serieus.quote:Op zondag 7 september 2025 06:06 schreef Jigzoz het volgende:
De vrij plotselinge opkomst van generatieve AI heeft de manier waarop we online discussiëren ingrijpend veranderd. Waar sociale media en fora ooit uitsluitend draaiden om het uitwisselen van gedachten tussen mensen, verschijnen er steeds vaker bijdragen die (deels) door een taalmodel zijn geschreven. Soms is dat expliciet zichtbaar, zoals bij Grok op X, dat vooral wordt ingezet als factchecker. Soms gebeurt het ongemerkt, wanneer een gebruiker AI raadpleegt en het resultaat onder eigen naam als reactie plaatst. Wat verwachten we eigenlijk van een online discussie en hoe verhoudt AI zich tot die verwachting?
Een belangrijk voordeel van AI is de snelheid waarmee het feitelijke of rationele tegenargumenten kan formuleren. Het kost doorgaans veel minder moeite om onzin te verzinnen dan om die te weerleggen. Daardoor is het publieke debat lange tijd kwetsbaar geweest voor complotdenkers, populisten, influencers, kwakzalvers en andere verspreiders van onzin. Het voorbeeld Grok laat zien dat AI dit patroon kan doorbreken: er is plotseling een tegenmacht die foutieve uitspraken onmiddellijk van context voorziet of corrigeert. Dat werkt disciplinerend: wie onzin verkondigt, wordt sneller en effectiever tegengesproken dan voorheen.
Maar een gesprek is niet alleen een strijd om de waarheid, het is ook een sociaal ritueel. Fora en sociale media zijn plekken van ontmoeting, waar we de impliciete verwachting hebben dat een bijdrage door een mens geschreven is. Wanneer iemand ongemerkt een AI-tekst plaatst, kan dat voelen als verraad. Je dacht een gesprek te voeren met een ander, maar bleek in feite te communiceren met een computer. Dat roept een gevoel van oneerlijkheid op: jij hebt tijd en energie gestoken in een reactie, terwijl je gesprekspartner de arbeid heeft uitbesteed. Authenticiteit blijkt soms minstens zo belangrijk als inhoud.
Voor de Duitse filosoof Habermas is de publieke sfeer alleen gezond als deelnemers zich inzetten voor communicatieve rationaliteit: gesprekken waarin je argumenten eerlijk uitwisselt en gericht bent op wederzijds begrip. AI kan dit ideaal ondersteunen, door discussies feitelijker en gestructureerder te maken. Maar zodra AI wordt ingezet zonder dat de gesprekspartner het weet, wordt een van Habermas’ basisvoorwaarden geschonden: de waarachtigheid van je bijdrage. Een gesprek kan niet op louter inhoud rusten; ook de intentie van de spreker moet helder en eerlijk zijn.
Hannah Arendt biedt een iets breder perspectief. Voor haar is het publieke domein de ruimte waar mensen in hun uniciteit verschijnen, door middel van woorden en daden. We laten zien wie we zijn door ons te uiten in eigen taal en stijl. Als AI de woorden levert, komt de vraag op of iemand nog wel ‘verschijnt’. Of wordt diegene juist onzichtbaar, verscholen achter een technisch masker? Misschien verklaart dat waarom verborgen AI-gebruik zo veel weerstand oproept: we voelen intuïtief dat er iemand ontbreekt, dat de stem die we horen niet de unieke aanwezigheid van een ander mens is. Het publieke gesprek dreigt dan te verschralen, omdat er minder werkelijk menselijk verschijnen plaatsvindt.
Immanuel Kant voegt nog een derde dimensie toe. Voor Kant is eerlijkheid een plicht die voortkomt uit respect voor de ander als doel op zichzelf. Als je verzwijgt dat je een machine hebt gebruikt, behandel je de ander instrumenteel: je manipuleert hun verwachting van een menselijke interactie. Het gebruik van AI hoeft volgens een Kantiaanse logica niet verkeerd te zijn, zolang het transparant gebeurt en de ander met volledige kennis van zaken kan instemmen met het gesprek.
We zien dus drie kaders: Habermas wijst op de noodzaak van waarachtigheid voor een rationeel gesprek, Arendt op het belang van menselijke uniciteit in het publieke domein en Kant op de plicht tot eerlijkheid en transparantie. Samen maken ze duidelijk dat de inzet van AI in discussies niet louter een praktische kwestie is, maar een fundamentele filosofische uitdaging.
Tegenover deze zorgen staat echter onmiskenbaar ook de kwaliteitswinst. Een door AI geschreven reactie is vaak beter onderbouwd, minder emotioneel en meer to the point. Het gesprek kan daardoor terug op het spoor komen, in plaats van af te glijden naar chaos en insinuaties. Bovendien kan de gebruiker die de AI-tekst plaatst zich erachter scharen en de inhoud tot de zijne maken. Het effect is dan een dubbele kwaliteitsimpuls: de discussie wordt verbeterd en de individuele deelnemer groeit mee met de inhoud.
De centrale vraag is dan: hoeveel is die winst waard als tegelijkertijd het gevoel van authenticiteit verloren gaat? Een gesprek is immers meer dan een uitwisseling van proposities. Het is ook een ritueel van erkenning: ik laat zien dat ik jouw woorden serieus neem door er zelf woorden tegenover te stellen. Wanneer ik die woorden door een machine laat formuleren, breek ik met dat sociale contract.
Dat idee had ik ook al sterk, alleen dat haalt nog steeds t verhaal niet onderuit. Ergens ook ludiek natuurlijk. Ns kijken wat of t ergens heen gaat.quote:Op maandag 8 september 2025 17:40 schreef OllieA het volgende:
Ik heb sterk de indruk dat de OP geschreven is door, of met behulp van, een AI. Een handige prompt leidt tot dit soort, in mijn ogen tamelijk generieke teksten, waar ik verder niet zoveel mee kan.
Ik zit daar verder niet mee.
...maar dat was daar natuurlijk nogal off-topic, dus ik dacht: laat ik er morgenochtend eens een topic over beginnen. Dus ik begon een kladje voor een OP te schrijven:quote:Op zaterdag 6 september 2025 10:02 schreef Jigzoz het volgende:
Sommige mensen die regelmatig ChatGPT gebruiken om reacties te schrijven komen alleen zo tot verstandige teksten. Daarna zijn die teksten wél aan hun naam verbonden, dus moeten ze er ook nog achter blijven staan. En dat is vaak een grote stap voorwaarts ten opzichte van hun gebruikelijke niveau.
Ik zie regelmatig reacties staan waarvan ik vermoed dat ze van ChatGPT komen. Wanneer er een zogenoemd kastlijntje in voorkomt weet ik het doorgaans wel zeker, want op Nederlandse toetsenborden is daar niet eens een functie voor. Maar meestal denk ik: ha, goed dat er weer wat redelijks gepost wordt. De boel wordt weer in het spoor geduwd. Dat komt de echte discussie (die door de mensen zélf gevoerd wordt) alleen maar ten goede.
Dat kladje was nog niet geschikt als OP, want het was her en der onduidelijk, de tekst was wat vreemd nog en ik wilde die drie aangehaalde filosofen weghalen, of voldoende toelichten. Toen dacht ik: als het hele punt de acceptatie van door AI gegenereerde tekst is, dan is het op zich ook best ironisch om AI de OP te laten herschrijven. Het maakt het punt meteen dubbel: door het verschijnsel gewoon te beschrijven, maar ook door er een voorbeeld van te zijn.quote:"Ik vroeg me iets af en ik zal dat proberen te omschrijven. Over nut en schadelijkheid van LLM's wordt vrij veel gesproken en geschreven. Ik wil me nu even beperken tot sociale media en fora en dan dat nog beperkt tot dicussiethreads.
Als specifiek voorbeeld Grok op X. Die wordt ingezet als een soort fact checker en hoewel dat natuurlijk af en toe flink fout gaat, zie ik vooral dat mensen daardoor vrijwel moeiteloos gecorrigeerd worden als ze onzin plaatsen. Voorheen ging dat veel lastiger, want onzin bedenken kost veel minder tijd en moeite dan onzin ontkrachten.
Hier is het wél zo dat er bij elke post van Grok zichtbaar is dat het AI is. Op fora zie je ook mensen AI-berichten posten en vaak is daar juist niet expliciet duidelijk dat ze AI hebben gebruikt. De intentionele reactie daarop, als dat uitkomt, of als de suggestie er is dat dat gebeurt, is doorgaans zeer afkeurend. Mensen willen niet ongemerkt met een computer in gesprek zijn en willen dat een echt mens de moeite heeft genomen om te reageren.
Toch zie ik er zelf ook wel positieve kanten aan. Veel foragebruikers zijn zachtst gezegd erg slordig met hun beweringen. Ze overdrijven graag, praten complotdenkers, populisten, influencers, kwakzalvers en andere verspreiders van onzin na en dan raken gesprekken ook nog eens heel snel off-topic. Als mensen af en toe AI gebruiken om op lastige reacties te reageren, dan levert dat doorgaans wél een bericht op met aardig wat inhoudelijke kwaliteit. Daardoor wordt een discussie vaak wel weer terug in het spoor geduwd.
Daarnaast heeft die gebruiker dan onder zijn eigen naam een zinnig, doorwrocht bericht geplaatst en die zal daar inhoudelijk achter willen blijven staan. Er heeft dan dus een kwaliteitsimpuls plaatsgevonden: niet alleen op gespreksniveau, maar ook op individueel niveau.
Onderaan de streep zien we dus een tegenstelling: enerzijds het vernederende aspect van een computerantwoord terwijl je denkt met een mens in gesprek te zijn en zelf wel de moeite van zelf schrijven neemt; anderzijds de kwaliteitsimpulsen die AI-reacties geven.
Binnen de filosofische context is er wel het een en ander gezegd en geschreven dat hier relevant is. Ik denk aan Arendt met de publieke ruimte uit De Menselijke Conditie, want dan zou je je eigen vrijheid in zekere zin misbruiken. Habermas is toepasselijk vanwege de echtheid, eerlijkheid. Kant is misschien wat vergezocht, maar raakt volgens mij het grootste pijnpunt: in hoeverre neem je mensen serieus als je op ze reageert met een 'machine'?
Maar wat verwacht je eigenlijk van een forum? Is de menselijkheid van de reactie fundamenteel, of zoek je antwoorden, bevestiging en discussie op zich? Kortom: in hoeverre is AI gewenst/geaccepteerd op een forum? "
Maar waarde wordt wel vaker nagemaakt. Als valsmunterij bijvoorbeeld. Of vervalsingen van kunst, als kopie of origineel werk van een bekende kunstenaar. Of, in dit geval, als computertekst die als mensentekst wordt gepresenteerd. Dan kan het op zich wel slechts functioneel zijn, maar het krijgt de waarde toegekend van 'echte' tekst.quote:Op donderdag 11 september 2025 00:38 schreef Cockwhale het volgende:
Waarde zit in ambacht, in arbeid, in schaarste, in inspanning, in gevoel, in het unieke, in ervaringen, in betrokkenheid, in visies, in leren, in opoffering, in de mens. Daarom zal AI nooit voorbij 'functioneel' treden.
Tja, een leugen wordt ook wel eens geloofd, totdat men erachter komt dat het een leugen is. Dat misleiding wel eens leidt tot valse waardering, maakt het nog niet tot waardevol. Dat wat gewaardeerd werd was namelijk niet het gegeven dat het vals, nep, een kopie, of het resultaat van een prompt was.quote:Op vrijdag 12 september 2025 17:54 schreef Jigzoz het volgende:
[..]
Maar waarde wordt wel vaker nagemaakt. Als valsmunterij bijvoorbeeld. Of vervalsingen van kunst, als kopie of origineel werk van een bekende kunstenaar. Of, in dit geval, als computertekst die als mensentekst wordt gepresenteerd. Dan kan het op zich wel slechts functioneel zijn, maar het krijgt de waarde toegekend van 'echte' tekst.
In de kunstwereld is dit een bekend verschijnsel. Schilderijen die na ontmaskering nauwelijks nog waardevol waren in financiële zin. Eén van de bekendste en grootste schandalen zijn de vervalste werken van Vermeer door Han van Meegeren. Van Meegeren verkocht deze als authentiek voor enorme bedragen. Na zijn ontmaskering als vervalser daalden de prijzen van zijn werken tot het niveau van curiosa, terwijl ze eerst miljoenen waard waren.quote:Op zaterdag 13 september 2025 00:10 schreef Cockwhale het volgende:
[..]
Tja, een leugen wordt ook wel eens geloofd, totdat men erachter komt dat het een leugen is. Dat misleiding wel eens leidt tot valse waardering, maakt het nog niet tot waardevol. Dat wat gewaardeerd werd was namelijk niet het gegeven dat het vals, nep, een kopie, of het resultaat van een prompt was.
Zeker. Maar we moeten het ook niet groter maken dan het is. Een bericht op een forum of op social media heeft een heel andere waarde dan bijvoorbeeld een brief van een geliefde. En soms moet tekst gewoonweg functioneel zijn en is de menselijke waarde irrelevant. De overheid bijvoorbeeld stuurt al jarenlang vrijwel uitsluitend geautomatiseerde brieven. Niemand die daarover valt.quote:Op zaterdag 13 september 2025 00:10 schreef Cockwhale het volgende:
[..]
Tja, een leugen wordt ook wel eens geloofd, totdat men erachter komt dat het een leugen is. Dat misleiding wel eens leidt tot valse waardering, maakt het nog niet tot waardevol. Dat wat gewaardeerd werd was namelijk niet het gegeven dat het vals, nep, een kopie, of het resultaat van een prompt was.
Ik zeg ook niet dat AI niet bruikbaar is. Het kan informatief, leerzaam, inspirerend en gemakkelijk zijn. In verschillende zaken zal het ook op z'n minst een handige tool zijn. Zodra je je in het persoonlijke, sociale, ethische, culturele of artistieke domein bevindt, is het een ander verhaal.quote:Op zaterdag 13 september 2025 10:51 schreef Jigzoz het volgende:
[..]
Zeker. Maar we moeten het ook niet groter maken dan het is. Een bericht op een forum of op social media heeft een heel andere waarde dan bijvoorbeeld een brief van een geliefde. En soms moet tekst gewoonweg functioneel zijn en is de menselijke waarde irrelevant. De overheid bijvoorbeeld stuurt al jarenlang vrijwel uitsluitend geautomatiseerde brieven. Niemand die daarover valt.
Het lastige is volgens mij dat LLM's enerzijds een soort rekenmachine lijken: ze maken een bedoelde handeling eenvoudiger. Anderzijds zit er achter tekst altijd de suggestie van een daadwerkelijke schrijver en we willen niet in de maling worden genomen, dus de naam bij de tekst moet de naam van de schrijver zijn, of de schrijver moet namens die persoon handelen. Zeker als we op de een of andere manier waarde hechten aan die persoon.
Bij door AI bestuurde auto's is het zo dat er altijd een menselijke bestuurder eindverantwoordelijk is. Ik denk dat het bij door AI gegenereerde tekst ook zo moet zijn. Plaats je een grotendeels door AI geschreven tekst, dan moet die wel gelden als jouw boodschap. Je kunt je dan niet verbergen achter het falen van een computer.
De morele grens ligt volgens mij bij het persoonlijke. Ik denk dat iedereen wel aanvoelt dat een door AI geschreven liefdesbrief immoreel is en dat er met een door AI geschreven brief van de gemeente juist niets mis is. Berichten op fora liggen wat betreft persoonlijke waarde ergens tussen die twee uitersten in.
|
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |