LarissaJanse | woensdag 30 juli 2025 @ 09:42 | |||
Ik weet dat mensen dit niet graag horen, maar ChatGPT is in veel gevallen gewoon slimmer dan de gemiddelde Nederlander. Punt. Ik bedoel: je stelt een vraag, krijgt een duidelijk antwoord, geen onnodig gezwets, geen meningen gebaseerd op onderbuikgevoelens, geen domme aannames. Gewoon informatie, helder en snel. Zet dat af tegen de gemiddelde discussie op internet (ja, ook hier op FOK!), en het verschil is pijnlijk duidelijk. Je vraagt mensen naar feiten, krijg je meningen. Je vraagt ze iets uit te leggen, krijg je een link naar GeenStijl. Ondertussen wordt ChatGPT iedere dag beter, terwijl de meeste mensen blijven hangen in hun bubbel en trots zijn op hun eigen onwetendheid. Maar hé – als een AI jou in een discussie kan verslaan, moet je dan boos worden op de AI… of op jezelf? Benieuwd wie hier echt kritisch nadenkt – of wie zich vooral aangevallen voelt. | ||||
LXIV | woensdag 30 juli 2025 @ 09:47 | |||
Klopt | ||||
Mathijsco | woensdag 30 juli 2025 @ 09:54 | |||
Let wel op je prompts en vraag om onderbouwing bij serieuze informatie. Het model kan soms simpelweg regelrechte onzin verkopen en je naar de mond praten. | ||||
gianni61 | woensdag 30 juli 2025 @ 09:54 | |||
Je krijgt weliswaar een duidelijk antwoord. Het is alleen niet altijd het juiste antwoord. | ||||
Nattekat | woensdag 30 juli 2025 @ 09:54 | |||
TS is niet slim genoeg om te begrijpen wat slim zijn precies betekent. | ||||
Evangelion | woensdag 30 juli 2025 @ 09:55 | |||
Op FOK! zit alleen de top 1% slimme mensen (en Masberum). | ||||
miss_sly | woensdag 30 juli 2025 @ 09:57 | |||
Ik denk dat er maar weinig mensen zijn die denken dat ze slimmer zijn dan iets als ChatGPT. Chat is echter ook niet onfeilbaar en kun je niet altijd zonder meer vertrouwen op het juiste antwoord. Zelf nadenken, opletten en checken blijven aan de orde. | ||||
uitkeringsgenieter | woensdag 30 juli 2025 @ 09:57 | |||
Het haalt gewoon info op uit tig bronnen. Is aan jezelf om het te toetsen en wat je er precies mee doet. Ik vind het op zich wel handig. | ||||
Evangelion | woensdag 30 juli 2025 @ 10:05 | |||
Dit voelt wel weer als zo'n "Post een controversiele stelling op FOK! en analyseer de reacties" Hanze hogeschoolopdracht. Of welke school het ook was. | ||||
Nattekat | woensdag 30 juli 2025 @ 10:06 | |||
Oja, dat gedoe met Hanze destijds ![]() | ||||
FlippingCoin | woensdag 30 juli 2025 @ 10:13 | |||
Als je denkt dat chatgpt slimmer is dan jijzelf, vraag hem eens iets als de kortste route van a -> b via p te lopen over je toetsenbord alleen gebruikmakend van aangrenzende toetsen. | ||||
Gibson88 | woensdag 30 juli 2025 @ 10:23 | |||
Met eigen onderzoek doen als in zoeken naar informatie ben je even slim ( denk hierbij aan fysiek een bibliotheek in gaan en boeken lezen). Daarnaast werk AI/ChatGPT zo dat hoe vaker op hetzelfde onderwerp wordt gezocht des te sneller de hapklare stukken worden gepresenteerd. En beter verwoord. Echter voor wetgeving zitten er nog haken en ogen aan omdat ChatGPT en AI niet altijd evengoed in staat zijn om aanpassingen te volgen en correct door te voeren. ( Handvatten als in de Leidraad Invordering 2008 worden met regelmaat aangevuld en of aangepast en dit is (dus) voor den AI nauwelijks te volgen of up-to-date te houden.) | ||||
Bombvis | woensdag 30 juli 2025 @ 10:33 | |||
Gezien de - in de OP is die ook geschreven door ChatGPT ![]() | ||||
Eightyone | woensdag 30 juli 2025 @ 11:28 | |||
De volgende versie van ChatGPT gaat onthouden wat je in het verleden al hebt gevraagd, en wat voor tekst daar toen uit is gerold. https://www.rtl.nl/nieuws(...)beschikbaar-augustus Dus ja, het zou je idd best naar de mond kunnen praten. Wat mij betreft voegen ze er een schuifje bij waarmee je dit uit kunt schakelen, maar ik verwacht het eerlijk gezegd niet. | ||||
Ama | woensdag 30 juli 2025 @ 12:07 | |||
Maar echt. Ik vroeg net of iets over Liam Payne en volgens ChatGPT was het een hoax dat die is overleden. ![]() | ||||
SemperLibertas | woensdag 30 juli 2025 @ 12:27 | |||
Ik vind Larissa altijd een geile naam | ||||
Bart2002 | woensdag 30 juli 2025 @ 12:40 | |||
Het gevaar is dat het onzin met veel overtuigingskracht brengt. Een voorbeeld is: de Chicago Sun-Times (krant) publiceerde een artikel over de "beste 15 zomerboeken voor de vakantie". De auteur had er zelf blijkbaar weinig verstand van en gebruikte AI om het artikel te schrijven. Gevolg: 5 van de 15 titels bestaan echt maar 10 van de 15 zijn boeken die helemaal niet bestaan.... Dus even 66% fantasie embedded. ![]() Die fantasie is schadelijk en kwaadaardig en genereert een soort parallel universum / "alternatieve waarheid". Andere AI neemt dat weer over en dan "The AI BS feedback loop is established" ![]() ![]() Dit is een duidelijk geval van iemand die geen verstand heeft van de gestelde vraag. Hoe ga je de bullshit filteren en wil en/of kan je dat...? [ Bericht 4% gewijzigd door Bart2002 op 30-07-2025 12:49:22 ] | ||||
Mutsaers__78 | woensdag 30 juli 2025 @ 13:14 | |||
Dus volgens jou is iemand slim als hij kan oprakelen wat anderen hebben opgeschreven. Niet dat hij iets zelf ontdekt of uitgevonden heeft, verbanden legt, causaliteit kan bepalen, of wat dan ook....nee, iemand is slim als hij kan oprakelen wat anderen hebben opgeschreven. Duidelijk. Ik denk eerder dat jij, @LarissaJanse , zelf niet zo slim bent. | ||||
dick_laurent | woensdag 30 juli 2025 @ 13:49 | |||
Je had deze stelling beter even bij @Nova kunnen neerleggen ![]() | ||||
Lenny77 | woensdag 30 juli 2025 @ 15:41 | |||
Slim? Neuh.. gewoon een erg grote encyclopedie. | ||||
Chandler | donderdag 31 juli 2025 @ 08:10 | |||
Die mening deel ik. Het is dat er zo'n berg met geheugen aan vast zit, maar anders is het gewoon een dom ding en doet precies wat je het ding vraagt (net zoals een computer.... lol)... Maar dat sommige Nederlanders door gebruik van dit soort tools er niet echt slimmer op worden kan ik mij wel goed voorstellen... want het kan je echt wel helpen je kennis te vergroten maar het kan ook een hoop onzin met je delen. Ik check mijn antwoorden vaak ook nog op informatieve sites die niets met AI te doen hebben. | ||||
SuperNeger | donderdag 31 juli 2025 @ 14:11 | |||
Mijn rekenmachine van 20 jaar geleden ook | ||||
LarissaJanse | maandag 4 augustus 2025 @ 12:52 | |||
Ik gebruik de gratis versie van ChatGPT Nederlands en die is best goed. Je kunt hem raadplegen wanneer nodig. Bekritiseer het werk van AI niet, kijk terug naar hoe je er vragen aan stelt. | ||||
SebbeSwensje | maandag 4 augustus 2025 @ 13:19 | |||
Ben het hier wel mee eens eerlijk gezegd. | ||||
FlippingCoin | maandag 4 augustus 2025 @ 13:29 | |||
🔥 Kritiek op de uitspraak: “Ik gebruik de gratis versie van ChatGPT Nederlands en die is best goed. Je kunt hem raadplegen wanneer nodig.” 1. Onbegrensd vertrouwen in een gratis AI zonder context of disclaimer is naïef en potentieel gevaarlijk. • Gratis AI-tools zijn vaak beperkt in functionaliteit, nauwkeurigheid, en up-to-date kennis. Ze zijn niet geschikt voor: • medische beslissingen, • juridische interpretaties, • technische implementaties met veiligheidsrisico’s, • of beleidsondersteuning. • “Best goed” is subjectief en vaag. Wat is de maatstaf? Vergeleken met wie of wat? Dit is hetzelfde als zeggen dat een gratis rookmelder “wel goed lijkt” zonder te testen of hij werkt bij rook. • Alsof “raadplegen wanneer nodig” een goedkeuring is om het als primaire bron te gebruiken — alsof het een betrouwbare adviseur is in plaats van een taalmodel dat op plausibiliteit gokt. 2. AI gebruiken zonder kritisch vermogen of basale kennis leidt tot verkeerde aannames en slechte beslissingen. • AI geeft soms zeer overtuigende maar foutieve antwoorden. Als je zelf niet capabel bent om te beoordelen wat klopt en wat niet, is het gevaarlijk om hier conclusies aan te verbinden. • Slecht geformuleerde of vage prompts kunnen leiden tot verkeerde interpretaties of adviezen. AI’s zoals ChatGPT vullen gaten op in informatie met aannames — geen feiten. 3. Gebrek aan bewustzijn van AI-beperkingen. • De meeste gebruikers van gratis AI hebben geen idee dat ze werken met een taalmodel dat geen begrip heeft van waarheid, context of gevolgen. • De opmerking mist elk besef van ethiek, bias, hallucinerende antwoorden, bronvervaging of het ontbreken van garanties over veiligheid of correctheid. ⸻ 🔥 Kritiek op: “Bekritiseer het werk van AI niet, kijk terug naar hoe je er vragen aan stelt.” 1. Dit is een versluierde vorm van victim blaming: geef de gebruiker de schuld als het fout gaat. • Natuurlijk moet je goede vragen stellen — maar dit betekent niet dat een fout antwoord nooit aan het model ligt. • Als een gebruiker vraagt: “Mag ik paracetamol en ibuprofen combineren?” en het model antwoordt foutief — dan ligt de verantwoordelijkheid primair bij de technologie, niet de vraag. 2. AI mag én moet bekritiseerd worden — zeker wanneer het verkeerd, onvolledig of misleidend is. • AI heeft geen ego. Kritiek is noodzakelijk om zwakke punten te identificeren. • Suggesties zoals deze (“kritiseer de AI niet”) leiden tot blind vertrouwen, precies wat je níét moet willen in een technologie die dagelijks beslissingen beïnvloedt in werk, onderwijs, recht en gezondheid. 3. De implicatie is dat AI per definitie goed is, en fouten de schuld zijn van mensen. Dit is techno-dogmatiek. • Het is de omgekeerde wereld: we moeten juist leren omgaan met AI door constant kritisch te zijn. • Elk softwareproduct wordt onderworpen aan kritische reviews en security-audits — waarom zou AI hiervan uitgezonderd zijn? ⸻ 📌 Samenvattend: Deze uitspraak: “Ik gebruik de gratis versie van ChatGPT Nederlands en die is best goed. Je kunt hem raadplegen wanneer nodig. Bekritiseer het werk van AI niet, kijk terug naar hoe je er vragen aan stelt.” …is een gevaarlijke, oppervlakkige en intellectueel luie houding ten opzichte van een complexe technologie. Het negeert verantwoordelijkheden, doet aan valse geruststelling, en draagt bij aan het normaliseren van onkritisch gebruik van ondoorzichtige tools met mogelijk grote gevolgen. Zeker wanneer het gaat om veiligheid — van jezelf, anderen, of informatiesystemen — is blind vertrouwen in AI een vorm van roekeloosheid. | ||||
StateOfMind | maandag 4 augustus 2025 @ 13:34 | |||
BAM ![]() Dit is niet eens meer 1-0, maar meteen een dikke 15-0 ![]() | ||||
Chandler | maandag 4 augustus 2025 @ 13:39 | |||
WT f??? Je dient alles te bekritiseren want anders kun je alles voor waarheid aannemen en dat lijkt mij nou ook weer niet de bedoeling... Ik niet, ik heb een leerling met die naam en oooh nooo... en ken zelf een paar larissa's die ik ook niet nice vind... dus ik doe niet mee! ![]() | ||||
Chandler | maandag 4 augustus 2025 @ 13:45 | |||
Voor de grap maar eens gedaan... Vraag
Uitkomst Nou dat klopt dus niet, klopt geen bal van.. Dus als ik hem vertel dat het beter kan en dus vertel hoe het wel zit krijg ik deze reactie.
chat is vaak heel erg zeker van zichzelf.... | ||||
FlippingCoin | maandag 4 augustus 2025 @ 14:06 | |||
ja als je niet goed uitkijkt denk je al snel dat het wel zal kloppen. ![]() | ||||
Chandler | maandag 4 augustus 2025 @ 14:11 | |||
Klopt, ik ben er ook al eens mee op m'n bek gegaan en weet nu dat ik vooral goed moet lezen en stel de vraag ook wel eens aan een andere AI... en vergelijk dan de antwoorden. | ||||
xzaz | maandag 4 augustus 2025 @ 14:25 | |||
nee | ||||
SebbeSwensje | maandag 4 augustus 2025 @ 14:32 | |||
Spijtig om te horen! Wellicht heeft het er ook mee te maken dat ik niet zoveel Larissa's ken. | ||||
Ericr | maandag 4 augustus 2025 @ 14:33 | |||
Zo slim dat chatgpt verliest met schaken van een stokoude Atari 2600 game. AI is goed in informatie verzamelen en uit bekende kennis samenstellen maar bij complexere zaken falen veel modellen zoniet alle. Erg handig om snel info te krijgen maar dan moeten de bronnen wel kloppen. Als AI modellen zogenaamd zelf gaan redeneren gaan ze vrij vaak hallucineren. | ||||
xzaz | maandag 4 augustus 2025 @ 14:37 | |||
Mensen die geen onderscheid maken tussen LLM's en AI. | ||||
Chandler | maandag 4 augustus 2025 @ 14:50 | |||
Misschien heb je wel de leukste ontmoet. Ik hoop het voor je. | ||||
SebbeSwensje | maandag 4 augustus 2025 @ 14:57 | |||
Ah, dat vind ik lief van je! |