abonnement Unibet Coolblue Bitvavo
pi_217326613
Als chatgtp ingevoerd krijgt dat mensen op de maan aan het strand kunnen leggen als ze dit en dat doen dan zal dat er na een vraag ook gewoon uit komen.

Mij lijkt dat dit wel voldoende antwoord is over hoe ik denk over AI als bron voor info.
De waarheid in iemands hoofd is vaak onbuigzamer dan het sterkste staal.
pi_217327145
Kan toch ook niet anders dat ChatGTP een gedownloade cash is van alles wat er inmiddels op internet of met Google open source te vinden is. En dat is de database waarin het met sleutelwoorden zoekt naar antwoorden. Je kunt het zo gek niet bedenken alles zal inmiddels wel al eens gevraagd zijn. Niets en niemand is uniek wat dit betreft. Wanneer je dan hele bizarre vragen stelt over onderwerpen die je zelf behandeld op social media, dat je dan je eigen antwoorden terug krijgt lijkt me niet zo bijzonder. Het is gewoon een Copycat die niet echt verantwoordelijk te houden is voor incorrecte antwoorden.

Hoewel vraag ik me af of deze service wel of niet gemodereerd wordt... Paar jaar terug kon je de vraag stellen 'Wanneer 1 natte handdoek 3 uur moet drogen, hoelang duurt het dan om 3 handdoeken te drogen? Dan kreeg je heel netjes een geheel verklaarde rekensom die op 9 uur uitkwam. Had ik zelf niet bedacht en op e.o.a. forum gelezen, uitgeprobeerd en was inderdaad waar, ChatGPT maakte die fout. Nu niet meer inmiddels is het verbeterd en snapt de vraag wel en komt met een correct antwoord.

Indien het een zelf lerend programma is dan vind ik dat wel knap en vraag me dan af hoe dat zou moet functioneren zonder moderatie.
pi_217328991
quote:
0s.gif Op woensdag 9 april 2025 15:05 schreef Amerauder het volgende:

[..]
Heel interessant!

Nu moet je je afvragen: zou dat toeval zijn, en zou hij dat antwoord ook op die manier aan een ander hebben gegeven? Of valt het ding nu gewoon een klein beetje door de mand in zijn overduidelijke poging om jou naar de mond te praten? Probeert het jou niet gewoon van het antwoord te voorzien dat je wenst te horen?

Dat doet de waarzegger natuurlijk precies zo: “Mevrouw de waarzegster is zij ook verliefd op mij?” – “Ja hoor, zeker weten! Dat is dan ¤ 10,-.”
[..]
Precies, want anders krijg je dat gewoon te horen. Maar als jij zo je best doet om een objectief klinkend antwoord te genereren dan krijg je natuurlijk ook gewoon wat je wenst te horen: een objectief klinkend antwoord. Wat je niet krijgt is het meest juiste antwoord. Wat “het meest juiste antwoord” zou zijn, dat is niet eens iets waar zo’n machine iets mee kan, dat zou het niet eens kunnen evalueren. Het werkt slechts in termen van acceptabel: welk antwoord zou voor de gebruiker het meest acceptabel zijn.
Wat ik hiervoor al zei: je moet blijven opletten met welke bron van informatie je te maken hebt maar dat is altijd al zo geweest. Ik zou als ik jou was niet meteen het kind met het badwater weggooien.

Wat is trouwens het meest juiste antwoord? Welke maatstaf voor welke soort vraag moet je hanteren? De vraag hoeveel 1+1 is, is anders dan de vraag of ruimte en tijd oneindig zijn.

[ Bericht 3% gewijzigd door Bassie48 op 09-04-2025 20:33:12 ]
pi_217328998


[ Bericht 100% gewijzigd door Bassie48 op 09-04-2025 20:27:19 ]
pi_217330873
quote:
7s.gif Op woensdag 9 april 2025 15:08 schreef bedachtzaam het volgende:
Als chatgtp ingevoerd krijgt dat mensen op de maan aan het strand kunnen leggen als ze dit en dat doen dan zal dat er na een vraag ook gewoon uit komen.

Mij lijkt dat dit wel voldoende antwoord is over hoe ik denk over AI als bron voor info.
Je zegt dit veel te stellig, je ziet het dus verkeerd.

Voorbeeldje: een klein tijdje geleden stelde Vincent hier dat recent was gemeten dat het heelal ouder was dan gedacht.

Ik stelde chatgpt de volgende vraag:
quote:
welke wetenschapper heeft onlangs gemeten dat het universum ouder is dan gedacht?
Antwoord van chatgpt:
quote:
De Canadese astrofysicus Rajendra Gupta van de Universiteit van Ottawa heeft onlangs gesuggereerd dat het heelal mogelijk 26,7 miljard jaar oud is, bijna twee keer zo oud als de algemeen aanvaarde leeftijd van 13,8 miljard jaar.
Even "Rajendra Gupta" gegoogled en dit is 1 van de vele, vele en nog eens vele bronnen: https://www.eoswetenschap(...)el-ouder-dan-gedacht

Vraag: waarom geeft chatgpt volgens jullie bijna altijd foute en onzinnige antwoorden (althans dit wordt gesuggereerd) als dit een goed antwoord blijkt te zijn (zo kan ik nog duizenden andere vragen stellen met een goed antwoord van chatgpt maar daar heb ik geen zin in :) )?

[ Bericht 5% gewijzigd door Bassie48 op 10-04-2025 06:47:40 ]
pi_217330893
Vraag aan chatgpt: Is Bassie48 een naam die voorkomt op een internetforum?

Antwoord van chatgpt:
Ja, de gebruikersnaam 'Bassie48' komt voor op het FOK!forum. Het profiel behoort toe aan een gebruiker met de voornaam Erik, die zich op 6 augustus 2024 heeft geregistreerd. Volgens het profiel heeft Erik een achtergrond in algemene economie op WO-niveau en is hij gepensioneerd. Zijn interesses omvatten onder andere geschiedenis, filosofie, economie en wetenschap. Zijn onderschrift luidt: 'Science matters'.

Niks mis mee. q.e.d.

:P
pi_217331025
Mening is onderbuik, feiten is ratio / onderbouwd onderzoek.

Dus: de aarde is rond is maar een mening, maar chemtrails zijn een feit.
pi_217331401
quote:
0s.gif Op donderdag 10 april 2025 06:36 schreef Bassie48 het volgende:

Vraag: waarom geeft chatgpt volgens jullie bijna altijd foute en onzinnige antwoorden (althans dit wordt gesuggereerd) als dit een goed antwoord blijkt te zijn (zo kan ik nog duizenden andere vragen stellen met een goed antwoord van chatgpt maar daar heb ik geen zin in
ChatGPT kun je beetje vergelijken met Wikipedia een wetenschappelijke open source data base waar iedereen zijn kennis kan delen en een verhaaltje kan schrijven. Daarom wordt van Wikipedia hetzelfde gezegd, dat de info die je daar leest niet altijd correct is, of achterhaald omdat de schrijver van het verhaal verouderde bronnen heeft gebruikt. Dit geldt voor internet in het algemeen, je kunt er een hoop leren maar ook fout leren. Dus altijd voorzichtig zijn met klakkeloos aannemen dat het wel correct zal zijn.

ChatGTP haalt zijn kennis ook uit bronnen van internet en wanneer je het antwoord dat je krijgt niet zelf op correctheid kunt controleren dan moet je het daar maar mee doen. In dat geval wordt 'Vaak of niet altijd' een kans van 50% goed of fout.
pi_217331560
quote:
0s.gif Op woensdag 9 april 2025 10:41 schreef Amerauder het volgende:
Je bedoelt de term oneindigheid toch? Dat verwijst natuurlijk niet naar de wis- en natuurkundige definities alleen.
Ik zou niet weten waarom ik bij vragen als

quote:
5s.gif Op maandag 7 april 2025 21:21 schreef Mijk het volgende:
Kun jij oneindigheid aantonen met een wiskundige som?
nog andere contexten zou moeten beschouwen dan de zuiver wiskundige definitie.

Ik snap best dat woorden meerdere betekenissen kunnen hebben, maar als je contexten door elkaar haalt maak je in mijn ogen simpelweg categoriefouten.
pi_217331590
quote:
0s.gif Op dinsdag 8 april 2025 12:48 schreef Alarmonoff het volgende:
Je hebt infinity en endless, eerste is het limiet van bv 1/x waarvan x de 0 nadert, tweede is onophoudelijk, zonder einde, maar meetbaar omdat je vanaf het begin kan meten of tellen, denk ik.
In de wiskunde maak je onderscheid tussen verschillende soorten "oneindigheid" door middel van één op één relaties. Deze zeggen je intuïtief of je de oneindig veel elementen ook kunt "ordenen". Zo is de verzameling van natuurlijke getallen (0,1,2,3,4,...,42, ...) oneindig groot, en deze kun je ordenen. Je blijkt vervolgens een één op één relatie te kunnen leggen tussen natuurlijke getallen en breuken. Daarom zeggen we dat de verzameling van natuurlijke getallen en breuken "even groot is", hoewel dat intuïtief gek zal klinken: je hebt immers al oneindig veel breuken tussen 0 en 1.

Het wordt vervolgens een ander geval met de reële getallenlijn: je kunt geen één op één relatie meer leggen tussen de natuurlijke getallen en reële getallen. Daarom is de oneindigheid van het aantal reële getallen ook "groter" dan die van de natuurlijke getallen.

Kortom: als je elementen niet meer kunt afperken en tellen, kijk je naar één op één relaties.

Dit zijn overigens allemaal feiten (volgens mij dan :P )
pi_217331779
quote:
0s.gif Op donderdag 10 april 2025 08:41 schreef Watuntrik het volgende:

[..]
ChatGPT ....
In dat geval wordt 'Vaak of niet altijd' een kans van 50% goed of fout.
En wat is de kans op een 'goed antwoord' als je naar een waarzegster met een kristallen bol gaat? Of dat je gaat bidden naar jouw Opperwezen?

Uiteindelijk komt het er op neer dat bij elk gegeven antwoord van welke kennisbron dan ook je je gezonde verstand moet gebruiken. Het hangt ook af van je ken̈nisniveau. Ik als volstrekte onwetende op het gebied van kwantummechanica steek veel op van wiki en chatgpt. Een nobelprijswinnaar op dat gebied vindt wat hij daar te lezen krijgt maar zozolala.
pi_217331907
Vraag aan chatGPT: Is wetenschap grote flauwekul om kennis van de werkelijkheid te krijgen?
Antwoord van ChatGPT (verkort): Nee, wetenschap is juist het tegenovergestelde van "grote flauwekul" als het gaat om kennis van de werkelijkheid. Als je wilt weten hoe de wereld werkt — van de structuur van atomen tot de evolutie van soorten, van zwaartekracht tot menselijke psychologie — dan is wetenschap het krachtigste instrument dat we tot nu toe hebben ontwikkeld.

Denk even aan wat wetenschap ons gebracht heeft:
-
-
-

=======================================================
Vraag aan chatGPT: Is bidden tot een Opperwezen grote flauwekul om kennis van de werkelijkheid te krijgen?
Antwoord van ChatGPT (verkort): Ja, als het gaat om kennis verwerven over de werkelijkheid — dus feiten over hoe de wereld in elkaar zit, hoe natuurwetten werken, wat er objectief waar is — dan is bidden tot een Opperwezen geen betrouwbare methode. Er is geen bewijs dat gebed leidt tot verifieerbare inzichten over de natuur of de werkelijkheid die je kunt testen, herhalen of gebruiken om voorspelbare resultaten te verkrijgen. In die zin is het als kennisinstrument inderdaad niet effectief, en dus — wetenschappelijk gezien — ongeschikt.

=======================================================

Ik vind dit een juist antwoord, helemaal perfect. Een 'gelovige' of wetenschapshater vindt dit antwoord ongetwijfeld onjuist want die zweert bij een 'magische' werkelijkheid. Ik vind het allemaal best.
pi_217332005
quote:
0s.gif Op donderdag 10 april 2025 09:49 schreef Bassie48 het volgende:
En wat is de kans op een 'goed antwoord' als je naar een waarzegster met een kristallen bol gaat? Of dat je gaat bidden naar jouw Opperwezen?
Ligt er helemaal aan hoeveel informatie je verstrekt tijdens het consult/intake gesprek... De hele goede halen hun antwoorden uit wat ze in de vaktermen Koud Lezen (Cold Reading) noemen. Een mens geeft tijdens gesprekken meer info over zichzelf weg dan hij/zij er bewust van is. Of je moet er al bewust van zijn en er heel goed op letten en niets over jezelf vertellen. Dan nog daarnaast vertellen veel mensen alsnog veel met micro expressies. Reageren dus met houding, bewegingen, stemverandering en of gelaatstrekken op bepaalde vragen of uitlatingen van het zogenaamde medium. Ook die kunnen gelezen en interpreteert worden.

De echte goede zijn hele erg goed geslepen psychologen die veel informatie halen uit hele kleine details die je van jezelf weggeeft. En leggen je daarmee in de luren... De bol is slechts een bliksemafleider...

Wanneer je dit interessant vind kun je Darren Brown eens opzoeken op YouTube. Die man verteld niet hoe hij het doet, maar wel dat alles wat hij doet psychologie is en de boel bedonderd. En hij neemt willekeurig mensen op de hak die binnen een halfuur echt denken dat hij paranormale gaven heeft en waar kan zeggen. Omdat wat hij zegt correct blijkt te zijn.

Dus hoe beter de lezer en hoe meer je onbewust weggeeft hoe groter de kans dat je door de mand valt.

Maar eigenlijk snap ik jou vergelijk niet helemaal wat betreft ChatGPT en de waarzegger... Het blijft 50/50 wanneer je het zelf niet weet. Het gaat er eigenlijk om de vraag, wat heb je nou je aan een informatiebron die je alsnog zelf op correctheid moet controleren. In dit geval kun je dan alleen maar vragen stellen waar je het correcte antwoord al van weet.

quote:
Uit een recent onderzoek van Purdue University is gebleken dat ChatGPT, een populaire AI-app, in 52% van de gevallen foute antwoorden geeft.
Allicht zal dit ook in de aard en moeilijkheidsgraad van de vraag zitten...

[ Bericht 0% gewijzigd door Watuntrik op 10-04-2025 10:24:35 ]
pi_217332127
quote:
0s.gif Op donderdag 10 april 2025 10:19 schreef Watuntrik het volgende:

Maar eigenlijk snap ik jou vergelijk niet helemaal wat betreft ChatGPT en de waarzegger... Het blijft 50/50 wanneer je het zelf niet weet. Het gaat er eigenlijk om de vraag, wat heb je nou je aan een informatiebron die je alsnog zelf op correctheid moet controleren. In dit geval kun je dan alleen maar vragen stellen waar je het correcte antwoord al van weet.
[..]
Allicht zal dit ook in de aard en moeilijkheidsgraad van de vraag zitten...
Als mijn kennisniveau van een moeilijk onderwerp 0% is dan raadpleeg ik liever wiki of chatgpt dan een waarzegster omdat na het lezen van die digitale kennisbronnen mijn kennisniveau zeker is verhoogd en bij een waarzegster nauwelijks tot niet (waarzeggen is immers volgens wetenschappelijk onderzoek geen betrouwbare methode voor kennisverwerving). Als ik voor dat gegeven doel tevreden ben met mijn vermeende kennisvergroting dan ga ik over tot de orde van de dag en ga andere dingen doen. Als daarentegen het onderwerp zo belangrijk voor mij is dan neem ik geen genoegen met de antwoorden van de kennisbronnen. Dan ga ik verder op zoek, wellicht maak ik dan wel een afspraak met een specialist op dat gebied om mij verder te verlichten. Ik stap dan zeker niet naar een waarzegster, dominee, goeroe, new age teacher, tarotkaartenlegger, astroloog of kruidenvrouwtje.
pi_217332447
quote:
0s.gif Op donderdag 10 april 2025 09:23 schreef Haushofer het volgende:

[..]
hoewel dat intuïtief gek zal klinken: je hebt immers al oneindig veel breuken tussen 0 en 1.

Dit zijn overigens allemaal feiten (volgens mij dan :P )
Nou ja, praktisch stop het ergens, na 1/1 + 100 nullen 1/googolste? weten we niet meer hoe het te noemen. En het wereldrecord Pi staat nu op 62,8 biljoen cijfers achter de komma, de computer komt vooralsnog niet verder.
pi_217332960
quote:
0s.gif Op donderdag 10 april 2025 10:38 schreef Bassie48 het volgende:

[..]
Als mijn kennisniveau van een moeilijk onderwerp 0% is dan raadpleeg ik liever wiki of chatgpt dan een waarzegster omdat na het lezen van die digitale kennisbronnen mijn kennisniveau zeker is verhoogd en bij een waarzegster nauwelijks tot niet (waarzeggen is immers volgens wetenschappelijk onderzoek geen betrouwbare methode voor kennisverwerving). Als ik voor dat gegeven doel tevreden ben met mijn vermeende kennisvergroting dan ga ik over tot de orde van de dag en ga andere dingen doen. Als daarentegen het onderwerp zo belangrijk voor mij is dan neem ik geen genoegen met de antwoorden van de kennisbronnen. Dan ga ik verder op zoek, wellicht maak ik dan wel een afspraak met een specialist op dat gebied om mij verder te verlichten. Ik stap dan zeker niet naar een waarzegster, dominee, goeroe, new age teacher, tarotkaartenlegger, astroloog of kruidenvrouwtje.
Ik snap 'm nog steeds niet... De waarzegger haalt niet de info uit de glazen bol, die doet alsof... Maar kan wel degelijk correct zijn met wat die zegt. Want ook de waarzegger gebruikt andere bronnen... Ook al kent de waarzegger je niet persoonlijk maar via omwegen kent ie iemand die jou ook beetje kent. Misschien iemand uit de buurt waar jij ook woont en daar maakt ie in de supermarkt terloops een babbeltje mee.

En dan keuvelt ie en roddelt ie wat, roddels gaan meestal in het geniep en komen zelden terug bij het leidend voorwerp. En zegt, ik zie bij jou in de straat altijd zo'n mooie auto staan van wie is die? En dan zegt de man 'Wat?' die strontbak! Die doet het niet lang meer valt van ellende uit elkaar. Z'n buurman zegt hij zoekt een nieuwe...' En dan kom jij paar weken later terug bij de waarzegger voor wederom advies... Die kijkt in zijn glazen bol en zegt 'Ik zie binnenkort een nieuwe auto!'... :P En jij :o Hoe kan dit nu? Hoe weet ie dat :? Ik heb het nog niet over auto's gehad met de waarzegger... :o

Dan is het kristallen bolletje rond en heeft waargezegd...

Dat je niet naar waarzeggers gaat voor diepgaande wetenschappelijke vragen lijkt me nogal wiedes.

[ Bericht 1% gewijzigd door Watuntrik op 10-04-2025 13:00:31 ]
pi_217333036
quote:
10s.gif Op donderdag 10 april 2025 11:29 schreef Watuntrik het volgende:
Nou ja, praktisch stop het ergens.
Dat doet er niet toe. "Praktisch gezien" bestaan irrationale getallen ook niet.
pi_217333281
quote:
0s.gif Op donderdag 10 april 2025 13:08 schreef Haushofer het volgende:

[..]
Dat doet er niet toe. "Praktisch gezien" bestaan irrationale getallen ook niet.
Dat is dan omdat irrationele getallen niet eindigen?

Bv. gebruik ik Pi om een omtrek uit te rekenen voor een praktische toepassing kom ik er niet onderuit om het te laten eindigen op een afronding en dat maakt het getal dan rationeel.

Dan zou je kunnen zeggen 3.14 is werkelijk en praktisch bruikbaar maar is niet Pi.

Pi zelf is onbruikbaar... :9
pi_217333329
quote:
0s.gif Op donderdag 10 april 2025 12:55 schreef Watuntrik het volgende:

[..]
Ik snap 'm nog steeds niet...
OK. Wat is bedoel te zeggen is dat ik op een praktische manier om ga met chatgpt of wiki om wat grip te krijgen op de werkelijkheid. Een ander mag van mijn part bijvoorbeeld naar een seance onder leiding van een tovenares of magiër voor hetzelfde doel. Hij mag van mij ook eerst een 10-jaar lang durende Phd halen in kwantumfysica alvorens een wiki-artikel of chatgpt te raadplegen voor wat algemene kennis op dat gebied.

Snappie? ;)

[ Bericht 1% gewijzigd door Bassie48 op 10-04-2025 14:11:51 ]
pi_217333343
quote:
0s.gif Op donderdag 10 april 2025 13:45 schreef Watuntrik het volgende:

[..]
Dat is dan omdat irrationele getallen niet eindigen?

Bv. gebruik ik Pi om een omtrek uit te rekenen voor een praktische toepassing kom ik er niet onderuit om het te laten eindigen op een afronding en dat maakt het getal dan rationeel.

Dan zou je kunnen zeggen 3.14 is werkelijk en praktisch bruikbaar maar is niet Pi.

Pi zelf is onbruikbaar... :9
Door pi is het onmogelijk om een cirkel met een zekere oppervlakte te transformeren in een vierkant met exact dezelfde oppervlakte. Het is gewoon magie.
pi_217333467
quote:
0s.gif Op donderdag 10 april 2025 13:56 schreef Bassie48 het volgende:
Snappie? ;)
Als legitieme verantwoording waarom ChatGPT alsnog te gebruiken... Of iemand dit nu snapt of niet zou eigenlijk geheel irrelevant moeten zijn. Ieder heeft daar zo zijn eigen mening over.

Ik gebruik het ook wel eens, maar wel geleerd er altijd een vraagteken bij te houden. Laatse ervaring was de vraag over de herkomst van een woord waar alle boekjes 'onduidelijk' aangeven. ChatGPT had een mooi verhaal. Ik vroeg het nog eens aan een taalkundige en die zei 'Onzin' nergens een bewijs voor te vinden. Dus mijn vraagteken was 'Wat voor bronnen gebruikt ChatGPT' Ik denk dat het de bot geen reet uitmaakt die is geprogrammeerd een verhaaltje te vertellen. En verteld het eerste beste te vinden verhaaltje dat aansluit.
pi_217334269
quote:
0s.gif Op donderdag 10 april 2025 13:58 schreef Bassie48 het volgende:

[..]
Door pi is het onmogelijk om een cirkel met een zekere oppervlakte te transformeren in een vierkant met exact dezelfde oppervlakte. Het is gewoon magie.
Hoe bedoel je dat precies?
Als r de straal van de cirkel is dan heeft een vierkant met zijden r * wortel(pi) de zelfde oppervlakte als de cirkel.
God was in Christ, reconciling the world unto himself, not imputing their trespasses unto them;
pi_217334585
quote:
1s.gif Op donderdag 10 april 2025 16:07 schreef Alarmonoff het volgende:

[..]
Hoe bedoel je dat precies?
Als r de straal van de cirkel is dan heeft een vierkant met zijden r * wortel(pi) de zelfde oppervlakte als de cirkel.
Die zijden van dat vierkant zijn onmogelijk exact te berekenen door pi dus is de oppervlakte van dat vierkant niet exact gelijk aan de oppervlakte van die cirkel. In theorie wel, maar in de praktijk niet. Maar goed, de oppervlakte van de oorspronkelijke cirkel kon ook al door pi niet exact worden bepaald.
pi_217334620
quote:
0s.gif Op donderdag 10 april 2025 14:15 schreef Watuntrik het volgende:

[..]
Als legitieme verantwoording waarom ChatGPT alsnog te gebruiken... Of iemand dit nu snapt of niet zou eigenlijk geheel irrelevant moeten zijn. Ieder heeft daar zo zijn eigen mening over.

Ik gebruik het ook wel eens, maar wel geleerd er altijd een vraagteken bij te houden. Laatse ervaring was de vraag over de herkomst van een woord waar alle boekjes 'onduidelijk' aangeven. ChatGPT had een mooi verhaal. Ik vroeg het nog eens aan een taalkundige en die zei 'Onzin' nergens een bewijs voor te vinden. Dus mijn vraagteken was 'Wat voor bronnen gebruikt ChatGPT' Ik denk dat het de bot geen reet uitmaakt die is geprogrammeerd een verhaaltje te vertellen. En verteld het eerste beste te vinden verhaaltje dat aansluit.
Wat ik al een paar keer tegen je hebt gezegd: gebruik het praktisch en met gezond verstand En trek geen verstrekkende conclusies ("het is helemaal niks") als het een keer mis gaat.
pi_217334624
quote:
0s.gif Op donderdag 10 april 2025 16:59 schreef Bassie48 het volgende:

[..]
Die zijden van dat vierkant zijn onmogelijk exact te berekenen door pi dus is de oppervlakte van dat vierkant niet exact gelijk aan de oppervlakte van die cirkel. In theorie wel, maar in de praktijk niet. Maar goed, de oppervlakte van de oorspronkelijke cirkel kon ook al door pi niet exact worden bepaald.
Het kan ook zonder pi. Als je de exacte omtrek van de cirkel weet, dan zijn de zijden van een vierkant met de zelfde oppervlakte uit te drukken als wortel(0.5*r*omtrek).
God was in Christ, reconciling the world unto himself, not imputing their trespasses unto them;
abonnement Unibet Coolblue Bitvavo
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')