Farenji | woensdag 6 maart 2024 @ 11:14 |
https://nos.nl/artikel/25(...)ntroles-door-ai-doenLijkt me een uitstekend idee, een hallucinerende bullshit-machine die nog niet eens fatsoenlijk kan rekenen inzetten voor wettelijke controles van jaarverslagen. Dit kan gewoon niet misgaan! | |
nixxx | woensdag 6 maart 2024 @ 11:34 |
Google AI: Het schrijven van zwarte cijfers is een onacceptabel racistisch verschijnsel, deze jaarrekening moet worden afgekeurd en het bestuur en de raad van commissarissen moeten een heropvoedingscursus krijgen van Gloria Wekker. | |
heywoodu | woensdag 6 maart 2024 @ 11:34 |
Je kunt ook echt precies indenken hoe dat gaat daar. IT'ers die elke dag weer roepen 'neehee, dat kan niet, AI is daar nog niet ver genoeg voor, dit moeten we niet doen', maar de IT-manager - al dan niet onder druk van bovenaf - blijft het er toch door drukken, 'want we moeten iets met AI doen', omdat ze ooit een keer hebben gelezen dat AI de toekomst is. | |
Straatcommando. | woensdag 6 maart 2024 @ 11:42 |
Je vergeet het andere toverwoord : "goedkoper" | |
#ANONIEM | woensdag 6 maart 2024 @ 11:47 |
Als ze het doen om grote hoeveelheden datasets door te spitten op afwijkingen snap ik het nog. Als AI ergens goed voor is, dan is het wel voor patroonherkenning. Voor de rest zou ik het niet zo snel toepassen in de wereld van Deloitte. Hier lijkt het me dus wel geschikt voor. [ Bericht 39% gewijzigd door #ANONIEM op 06-03-2024 11:47:53 ] | |
heywoodu | woensdag 6 maart 2024 @ 11:47 |
Dat 'voegt waarde toe'. | |
mvdejong | woensdag 6 maart 2024 @ 11:48 |
Waarna het project gigantisch faalt en er zwaar bezuinigd wordt op de IT-afdeling omdat die het fout hebben gedaan. | |
MichaelScott | woensdag 6 maart 2024 @ 11:49 |
Ik wens ze alvast veel succes met alle rechtszaken over verkeerd beoordeelde stukken. | |
Farenji | woensdag 6 maart 2024 @ 11:50 |
Ja, ik denk dat ze de ontslagvergunningen al aan het aanvragen zijn. Maar die kostenbesparing weegt vast niet op tegen de shitload aan schade die chatgpt gaat veroorzaken. | |
#ANONIEM | woensdag 6 maart 2024 @ 11:56 |
Je bent nogal zeker van het feit dat dit zou gaan falen. | |
Farenji | woensdag 6 maart 2024 @ 12:00 |
Dat klopt, LLMs zijn totaal overschat en overhyped, en vooral onbegrepen door de meeste mensen. | |
#ANONIEM | woensdag 6 maart 2024 @ 12:04 |
Volgens mij praat je nu gewoon de anti-AI mensen een beetje na. Zoals gezegd, LLM's kunnen prima patroonherkenning gebruiken om jaarverslagen te controleren op ontbrekende informatie. Als Deloitte hun model getraind heeft met de jaarverslagen van de afgelopen pak hem beet 10 jaar hebben ze een kwalitatieve sample die prima uit de voeten kan om als hulpmiddel te dienen voor accountants. Waarop baseer je dat bovenstaande niet mogelijk is, anders dan "Muh chatgpt schrijft bullshit op mijn prompt" onderbuik? | |
Farenji | woensdag 6 maart 2024 @ 12:07 |
Ik heb Cognitieve Kunstmatige Intelligentie gestudeerd aan de universiteit Utrecht. Wat is jouw kwalificatie? | |
xzaz | woensdag 6 maart 2024 @ 12:08 |
Dan zal ik de studie nog eens gaan doen | |
#ANONIEM | woensdag 6 maart 2024 @ 12:09 |
Dan mag je even teruggaan om je geld terug te vragen, want je haalt generative AI door de war met Advanced Pattern Recognition. Of heb je alleen de filosofische kant van het spectrum gevolgd? Dit dus. Je hebt er blijkbaar nog geen kaas van de techniek erachter begrepen. [ Bericht 27% gewijzigd door #ANONIEM op 06-03-2024 12:10:36 ] | |
Farenji | woensdag 6 maart 2024 @ 12:10 |
En wat is jouw kwalificatie? | |
xzaz | woensdag 6 maart 2024 @ 12:13 |
Niet echt belangrijk voor nu. Kijken als een document correct is tenopzichte van normen kan men gewoon simpel in de enterprise versie van openai gooien. Daar is niks moeilijks aan. | |
#ANONIEM | woensdag 6 maart 2024 @ 12:13 |
argumentum ad verecundiam. Nogal een zwaktebod. Geef anders eens antwoord op mijn vraag. | |
heywoodu | woensdag 6 maart 2024 @ 12:18 |
zou* | |
RetepV | woensdag 6 maart 2024 @ 12:19 |
Het zal er op uitlopen dat de AI gebruikt zal worden om te profileren, dat het daar dan bevooroordeeld in zal blijken te zijn, en onwettig zal blijken. Het zal er waarschijnlijk vooral voor zorgen dat jaarverslagen die verregaand gefabriceerd zijn, als 'goed 'worden beoordeeld. Terwijl de jaarverslagen van kleine bedrijven, waar mensen wekenlang op hebben zitten zweten, maar waar een foutje in is geslopen, onder een vergrootglas zullen worden gelegd. Ik voorzie dat grote bedrijven hier voordeel van zullen krijgen. | |
Red_85 | woensdag 6 maart 2024 @ 12:22 |
Yeah right, dit kan ook alleen maar goed gaan natuurlijk. | |
Farenji | woensdag 6 maart 2024 @ 12:25 |
Ik geef toe het was wat flauw, maar wel terecht. Ik heb me er wel degelijk in verdiept, ook na mijn studie, en weet ook de beperkingen van zo'n stochastisch systeem. In tegenstelling tot veel fanboys die er allerlei onrealistische eigenschappen aan toedichten. Wat dat betreft doet het een beetje denken aan de vorige hype, die van de blockchain. Maar laten we eerlijk zijn, je hoeft op zich geen universitaire studie gedaan te hebben, noch een accountant te zijn, om in te zien dat controle van een jaarrekening ook heel wat meer behelst dan wat "patroonherkenning op basis van input". | |
Akathisia | woensdag 6 maart 2024 @ 12:31 |
Advocaat-GPT wordt er ongetwijfeld al voor klaargestoomd. | |
xzaz | woensdag 6 maart 2024 @ 12:31 |
Gaat naar LOI.nl | |
Bart2002 | woensdag 6 maart 2024 @ 12:31 |
Een oplossing hiervoor is om het jaarverslag ook door AI te laten genereren. ![]() | |
xzaz | woensdag 6 maart 2024 @ 13:42 |
Dat is wel lastig; de huidige modellen kunnen niet heel goed rekenen. | |
Bart2002 | woensdag 6 maart 2024 @ 13:44 |
Dat hoeft ook helemaal niet omdat de "controleur" dat ook niet kan. Zo houdt de AI elkaar lekker bezig. | |
xzaz | woensdag 6 maart 2024 @ 13:44 |
![]() | |
allegoedenickszijnop | woensdag 6 maart 2024 @ 13:52 |
Dat zal wel loslopen, er is een gigantisch tekort aan accountants waardoor veel van de grote kantoren al met moeite nieuwe klanten aannemen. Daarnaast, er wordt al sinds jaar en dag gebruik gemaakt van software die aparte of bijzondere boekingen flagt in de aangeleverde datasets. Als ik het zo lees gaat het meer om of een jaarrekening taalkundig en op formatting juist is. Dat is ook een k-werk. [ Bericht 0% gewijzigd door allegoedenickszijnop op 06-03-2024 14:11:43 ] | |
Hexagon | woensdag 6 maart 2024 @ 14:57 |
Nouja er zullen vast nog wel autisten zijn die jaarverslagen zelf gaan lopen narekenen dus als dit mis gaat horen we het snel. Volgens mij gaat er niemand dood hierdoor dus laat ze het proberen. | |
stalybridge | woensdag 6 maart 2024 @ 15:18 |
Even een lekenvraag: Hoe zit het met de veiligheid van de gegevens van bedrijven die in dit systeem gepompt worden? Of wat is de impact daarvan? | |
Elan | woensdag 6 maart 2024 @ 15:21 |
@KingRoland Het begin van het einde. Iedereen straks werkeloos door AI. | |
KingRoland | woensdag 6 maart 2024 @ 17:04 |
@monkyyy | |
Farenji | woensdag 6 maart 2024 @ 19:47 |
Chatgpt slurpt alle data op die te vinden is, voor training. Copyright en privacy wetten worden daarbij gewoon genegeerd, want anders zou dat "innovatie in de weg staan". | |
FlippingCoin | woensdag 6 maart 2024 @ 19:52 |
Ik kan mij voorstrllen dat ze het gebruiken als extra controle, maar niet ter vervanging van menselijke controle eigenlijk. | |
Ericr | woensdag 6 maart 2024 @ 19:58 |
Data analyse met vast gestelde regels gaat over het algemeen prima. Je moet soms wel wat bijsturen maar een bevinding van een accountant zal ook niet zelfstandig plaats vinden bij de bedrijven waar Deloitte de boeken controleert. Als hulpmiddel is het prima, zal zo goed als zeker nog menselijke review op plaats vinden mocht er iets gevonden worden. | |
Bart2002 | woensdag 6 maart 2024 @ 21:01 |
ChatGPT is een taalmodel. Hoe heeft dat verstand van "data analyse"... Dat was nu juist de insteek van TS. Het blijkt en is ook heel logisch dat het daar helemaal niet geschikt voor is. Ik snap ook niet dat mensen en jij ook denken dat een taalmodel dat wel kan. Volslagen flauwekul. ChatGpt kan geweldig lullen als een dronkenman in de kroeg. Maar het kan geen jaarverslagen controleren, zoveel is zeker. Bijvoorbeeld een GPS navigatie in de auto kan dat ook niet. We hebben echt een volkomen verkeerd beeld van de en zeker deze "AI". | |
Ericr | woensdag 6 maart 2024 @ 22:29 |
Het spuugt gewoon bruikbare python uit via de data analyse optie. Heb je het überhaupt wel eens gebruikt? Heb er zelf vrij complexe business rule based analyses door laten uitvoeren op aangeleverde sets. Het is veel meer dan een chatbot. natuurlijk. Daarnaast kan je zelf ook scripts laten bouwen om die analyse zelf uit te voeren. Wel met enige instructie en kennis van analyse en scripting maar heb al genoeg bruikbare code laten genereren. Grootste probleem blijft de dementie door de token limit maar daar valt prima omheen te werken als je continu een baseline aanlevert. Wie er onbruikbare code of analyses uit krijgt gebruikt de tool niet goed. | |
SymbolicFrank | woensdag 6 maart 2024 @ 22:38 |
Alhoewel het gedachteproces van een LLM AI wel veel lijkt op dat van mensen, is het grote verschil dat wij dingen hebben geleerd door ze uit te proberen. Feedback. En dat heeft die AI niet. Dus die lult maar wat in het wilde weg. | |
Farenji | woensdag 6 maart 2024 @ 22:50 |
Oh ja joh? ![]() | |
Mortaxx | woensdag 6 maart 2024 @ 22:53 |
veel slechter dan wat accountants zelf doen kan het niet zijn | |
SymbolicFrank | donderdag 7 maart 2024 @ 00:11 |
Ver van je bed show? | |
Farenji | donderdag 7 maart 2024 @ 00:26 |
Nee hoor, maar ik wens je veel succes met het onderbouwen van je claim over het "menselijke gedachtenproces" van een llm. | |
MoreDakka | donderdag 7 maart 2024 @ 00:29 |
Met name door jou, zo lijkt het. LLMs zijn juist bij uitstek geschikt voor dit soort taken. Het is gewoon een tool net als ieder ander computerprogramma. Hoe lang denk je dat accountants al OCR-software gebruiken? | |
VEM2012 | donderdag 7 maart 2024 @ 00:34 |
Als er nou iets is wat chat gpt vaak fout doet is het wel rekenen, dus dit gaat vast een succes worden. | |
SymbolicFrank | donderdag 7 maart 2024 @ 00:49 |
Doe eerst even een studie informatica en ga een jaar met AI's stoeien en we komen hier op terug. | |
MoreDakka | donderdag 7 maart 2024 @ 00:53 |
ChatGPT is net zo goed in rekenen als jij in lezen bent, schijnbaar. Er staat heel duidelijk dat het gaat om controle op boekhoudkundige regels. | |
Farenji | donderdag 7 maart 2024 @ 00:57 |
Kom maar op hoor, ik heb in dit topic mijn achtergrond al gegeven. Ik ben geen leek. Doe je best, je kan het vast. | |
Origami94 | donderdag 7 maart 2024 @ 01:13 |
Oh nee wat gaan de stagiaires nu doen? Niet dat iemand ooit jaarverslagen controleert. Zie Enron. | |
SymbolicFrank | donderdag 7 maart 2024 @ 01:30 |
Ok. Wat je denkt is afhankelijk van waar je bent. Als je thuis op de bank gaat zitten, dan laad je de "bank zitten" staat in je hersenen. Dat is ook meer holografisch dan een state-machine. Het is gewoon een kopie van de vorige keer, voor alle betrokken neuronen tegelijkertijd. Dat kan ook niet anders, want als je het per neuron doet, dan verandert de output daarvan alle neuronen die daar mee verbonden zijn. Dus, je herinneringen zijn eigenlijk een heleboel waardes en sterktes waarmee een heleboel neuronen tegelijkertijd geprogrammeerd worden. Je komt dan in de staat "bank zitten" terecht. Als je nu opstaat en naar de keuken loopt, dan wordt er een andere staat geladen. Als je dus iets wilt gaan doen en je bent het vergeten als je op de plek bent waar je het wilt gaan doen, dan kun je teruglopen naar de plaats waar je het bedacht hebt en dan herinner je het weer. Die holografische status wijzigt ook maar heel langzaam. Je weet misschien wel dat je eigenlijk iets anders zou moeten doen (korte-termijn geheugen), maar je reflexen zijn daar nog niet aan aangepast. Ok, dat was de inleiding. Alles wat je doet is dus afhankelijk van de holografische staat van je hersenen. En wat je gaat doen is dan iedere keer datgene wat je automatische piloot je in die staat voorschrijft. Stap voor stap. Als het goed uitvalt, dan wijzig je de staat om dat mee te nemen. En als het niet goed uitvalt, dan schrap je dat. Ok, er zijn wat verschillen tussen de neuronen in je hersenen en die in een computer. Gek genoeg zijn die in je hoofd veel digitaler dan die in een computer. Je laad ze op, tot ze vuren. In een computer is de output lineair afhankelijk van alle inputs. Jouw neuronen hebben ook vele malen meer verbindingen dan die in een computer. Maar wij leren ook veel langer en hebben veel meer feedback. Maar uiteindelijk zijn beide modellen primair bezig met het bedenken van de volgende actie. In een model voor mensen zou je dat zo kunnen zien: onze primaire reactie is of er gevaar dreigt. Zo ja, gaan we dan vechten of vluchten? Daarna krijg je dingen zoals drinken, onderdak, sex en eten. Ja/nee. En als dat allemaal "nee" is, dan de rest. Het is een beslissingsboom, gevormd vanaf je geboorte. Die altijd een simpele actie als uitkomst heeft. Wat weer bepaald wat de beste vervolgactie is. Enzovoorts. Net zoals een LLM. Die kan alleen niet experimenteren en moet het dus doen zonder de experimentele feedback. Ze groeien niet op in een fysieke omgeving. Ze vertrouwen wat anderen zeggen. En dat is vaak grote onzin. | |
Eyjafjallajoekull | donderdag 7 maart 2024 @ 01:34 |
Denk dat het wel slim is. OpenAI zou ook werken aan een natuurkundig AI model. Kan best zijn dat dat rekenen over een jaar is opgelost. Voor nu gaat het om regels en taalkundige dingen. Maar als het eenmaal geintegreerd is kan het makkelijk worden uitgebreid naarmate de AI modellen meer kunnen. |