RM-rf | vrijdag 10 september 2021 @ 13:53 |
Steeds meer geautomatiseerde toepassingen maken gebruik van Algoritmes.... computerberekeningen die op externe gegevens, deels statistische en deels persoonlijke gegevens een te verwachte score berekenen. Op basis hiervan kunnen bv Sociale Media sites je voorstellen geven van content die je mogelijk zou bevallen, omdat je voorheen in soortgelijke onderwerpen interesse getoond hebt. ... maar daar houd het niet bij op. Algoritmes kunnen bv ook bepalen welk Cijfer je op je diploma krijgt, of of je toegang tot een bepaalde Opleiding krijgt; wat recentelijk gebeurde bij een New Yorks onderwijsinstituut dat geen toelatingsexamens kon houden en daarom besloot studenten op te nemen op basis van een Algoritme https://www.wired.com/sto(...)des-altered-futures/ Ook worden ze steeds sterker toeggepast bij bv financiele instellingen om mensen hun kredietrating te bepalen, bij Werkgevers om te bepalen welke sollicitanten ze aannemen of niet. Mogelijk zelfs steeds sterker bij Criminaliteitsbestrijding om potentiele misdrijven op voorhand op te sporen, zoals bv al voorspeld in de film Minority Report Minority Report (2002) - IMDb Een interssant voorbeeld wat Algortimes kunnen doen is een onderzoek dat Facebook ooit eens deed naar de relatiestatus van haar gebruikers en hun interacties.. het bleek redelijk eenvoudig te 'voorspellen' of een persoon zijn relatie zou gaan verbreken in de komende twee maanden op basis van diens connecties en hun interactie (dispersie) https://bits.blogs.nytime(...)ps-on-facebook/?_r=0 Of een evenzeer spannend voorbeeld: op 30 december 2019, dus ver voordat er iets officieel bekend over was, kon een canadees Algoritme vaststellen dat er een uitbraak van een gevaarlijke ziekte in china in de stad Wuhan plaatsgevonden had, en dat deze een groot risico had zich over de wereld te verspreiden (en kon exact voorspellen in welke 11 steden de vervolg-uitbraken zouden gaan plaatsvinden) https://diginomica.com/ho(...)anyone-else-had-clue Tevens lijkt steeds sterker de nieuwsvoorziening van mensen door Algoritmes gestuurd te worden, waardoor mensen dat nieuws te horen krijgen, dat ze ook willen horen. Iets dat het steeds moegelijker maakt dat mensen in een vervormde werkelijkheid komen te leven, enkel omdat ze passief nieuws tot zich nemen dat hen steeds steker verteld wat ze te denken hebben. en nooit ook hun eigen denkbeelden in vraag stellen gewoonweg omdat ze vrijwel geen informatie tot zich nemen die dat in vrage stelt. Ik zelf heb grote ook zorgen over zulke ontwikkelingen en denk dat het zeer kwalijke gevolgen kan hebben, maar ben zelf ook geen tegenstander van nieuwe technieken die onze Maatschappij altijd veranderen. An sich denk ik dat het onmogelijk is er géén gebruik van te willen maken, domweg omdat het ook dingen mogelijk maakt en veel 'vergemakkelijkt' (automatiseert). Ik zelf denk wel dat het zaak wordt juist de invloed die deze algoritmes hebben onder controle te brengen en daarbij hoort volgens mij dat mensen moeten realiseren hoe ze werken en hoe ze ook juist in hun eigen gedrag erdoor beinvloed kunnen worden. Bewustzijn is volgens mij daarbij de eerste stap | |
PSVCL | vrijdag 10 september 2021 @ 17:01 |
Ze gaan steeds verder waardoor ik geloof dat het een vorm van zwarte magie is. Heb iig geen social media en ben al afscheid aan het nemen van mn "smart"phone. | |
Haushofer | vrijdag 10 september 2021 @ 19:21 |
TS is zelf een bot. | |
Knipoogje | vrijdag 8 oktober 2021 @ 21:16 |
Sturende algoritmes waardoor iedereen dieper in zijn eigen bubbeltje gezogen wordt... zo'n beetje de hele drijvende kracht achter BNW en de verregaande polarisatie in de hele wereld. Je zou verwachten dat dit het meest populaire topic in heel BNW zou zijn.... oh wacht ![]() | |
Alarmonoff | vrijdag 8 oktober 2021 @ 21:32 |
https://archive.is/PoUMo | |
theguyver | vrijdag 8 oktober 2021 @ 21:43 |
Klopt, als je 1 of meerdere zoekopdrachten in Google of YT gaat zoeken krijg je soortgelijk info over algemeen doorgestuurd. Tenzij je jou eigen algotitme doorbreekt. Het helpt om je accounts af en toe even heel goed op te schonen. | |
PSVCL | vrijdag 8 oktober 2021 @ 21:51 |
Paar weken terug een gesprek met iemand over een bepaald onderwerp Kom later thuis , zet een YouTube filmpje op en krijg vooraf een advertentie over dat onderwerp terwijl ik die nog nooit eerder had gezien. Paar keer voorgekomen btw . Was niet eenmalig. Geloof daarom ook dat “ze”(?) meeluisteren | |
Haushofer | vrijdag 8 oktober 2021 @ 21:56 |
@PSVCL Ja, da's natuurlijk veel waarschijnlijker dan dat je onbewust naar gerelateerde zaken hebt gezocht, of bewust naar gerelateerde zaken hebt gezocht waarvan jij het verband niet ziet maar die algoritmes wel. Ik zet A Beautiful Mind maar weer es op ![]() | |
PSVCL | vrijdag 8 oktober 2021 @ 21:58 |
Heb daar nooit naar gezocht. Alleen besproken. En het is vaker voorgekomen de laatste tijd. Niet alleen bij mij btw. Hoor dat van meerdere mensen. Ze luisteren en kijken ook mee, ben daar van overtuigend. Weet alleen niet wie | |
Haushofer | vrijdag 8 oktober 2021 @ 22:00 |
Uh, koekoek, weet jij exact hoe die algoritmes werken dan? Maar zoals ik zei, complotten zijn veel aannemelijker natuurlijk. Wat moet je anders als je iets niet begrijpt? ![]() | |
RM-rf | vrijdag 8 oktober 2021 @ 23:03 |
Uiteindelijk draait het niet om of mensen het 'begrijpen' hoe ze werken.. Big Data valt uiteindelijk terug op het verwerken van héél veel gegevens en dan het eruit filteren van patronen (die soms ook best politiek incorrect kunnen zijn, bv is de kans groot dat een Algoritme bij voorbaat een Migrant, zeker een 22-jarige mannelijke migrant zonder afgerondde opleiding, sneller als potentieel crimineel zal zien)... Het voorbeeld van Facebook die bijna toevallig 'ontdekten' dat hun algoritme kon voorspellen welke mensen hun relatie zouden gaan verbreken (op basis van connecties en interactie op facebook door users) , is een zeer goede illustratie van hoe 'machtig' algoritmes kunnen zijn. En welke voorspellende kracht ze hebben. | |
PSVCL | vrijdag 8 oktober 2021 @ 23:08 |
Black magic | |
Paddo | vrijdag 8 oktober 2021 @ 23:33 |
Ik lees het woord algoritme hierboven meerdere keren, maar zijn algoritmes het probleem? Een algoritme is een wiskundige formule. In programmeertaal is het een instructie, een stukje code, om een probleem om te lossen. (Aldus Google) De TS maakt bijvoorbeeld melding van een Canadees onderzoek dat een algoritme gebruikt, en in een vroeg stadium Corona in Wuhang ontdekte.: BlueDot engine gathers data on over 150 diseases and syndromes around the world searching every 15 minutes, 24 hours a day. This includes official data from organizations like the Center for Disease Control or the World Health Organization. Ik weet niet wat iemand tegen deze formule heeft, die op zoek gaat naar afwijkende waarden in statistieken. Het is geen magie of zo. Hetzelfde met Facebook / Youtube en die anderen. Niet het algoritme is het probleem, de big data. Waarom zou ik een algoritme verbieden, als uit de verzamelde gegevens van Facebook valt af te leiden of ik binnen twee maanden ga scheiden? Een ander, nog niet verboden algoritme herontdekt dat vrij snel, natuurlijk.(met dezelfde data-set) En alle algoritmes verbieden is onmogelijk, de wereld draait erop. Zelfs de stelling van Pyhtagoras is er een.... De data-bewaarlust moet zwaar aan banden, maar de algoritmes? | |
RM-rf | vrijdag 8 oktober 2021 @ 23:56 |
Ik zou het zelf ook niet als 'probleem' zien... Maar wel een mogelijk punt dat de Mensheid haar controle zou kunnen verliezen over de wereld, die ze verkreeg dankzij haar redelijk unieke gebruik van 'intelligentie'. Algoritmes hebben de potentie véél inteligenter te zijn dan mensen, een sterkere analyserende en voorspellende macht te hebben dan een mens zou kunnen hebben. Hieruit volgt het idee dat er in de nabije toekomst misschien de mogelijkheid ontstaat dat de Mensheid bestuurd zou kunnen gaan worden door Machines. Domweg omdat die ook betere beslissingen nemen dan mensen zelf. | |
illusions | zaterdag 9 oktober 2021 @ 01:25 |
Nee hoor, je hebt iets opgezocht en je herinnert je het niet meer. Dat hoeft niet per se hetgeen te zijn wat je in de advertentie hebt gezien, het kan ook iets zijn wat nu de advertentie relevant heeft gemaakt. Google weet al dat je gaat scheiden van je vrouw voordat je het zelf goed en wel doorhebt, maar niet omdat het luistert naar je gesprekken. | |
Alarmonoff | zaterdag 9 oktober 2021 @ 01:52 |
| |
ems. | zaterdag 9 oktober 2021 @ 12:30 |
Technisch gezien sturen wij de algoritmes juist. | |
Paddo | zaterdag 9 oktober 2021 @ 22:17 |
Dit is pertinent fout. Intelligentie is een competentie, Algoritmes hebben geen competenties. Het zijn door mensen gemaakte formules die een door mensen gedefinieerd probleem helpen oplossen. Zoals jij het beschrijft, zou een algoritme ooit "zelfbewust" kunnen worden (een geest hebben) en zelf beslissingen kunnen nemen. Dat verwijs ik naar het rijk der fabelen. Computers -de uitvoerders van algoritmen- zullen altijd op de zelfde uitkomst komen, geen ICT-er die zich moet verontschuldigen dat de routers een vrijmibo hadden, of de fax ongesteld is. En ja: en bestaan zelflerende programma's. Deep learning systemen/AI/neurale netwerken, noem maar op. Maar zelfs die kunnen eigenlijk niets anders dan het simpele truukje waarvoor ze geprogrammeerd zijn, alleen hebben die een vrijheid om te leren wat de weg naar het goede antwoord is. Dat is ook niet onlogisch omdat er een afgebakende input en een afgebakende (gewenste) output is. Iets anders kan dat ding niet. Het is niet zo dat het algoritme van Facebook zelf bedacht heeft dat hij wel geschikt was om te bepalen wie er binnenkort ging scheiden. Waarschijnlijk heeft Facebook een algoritme dat statische gegevens (al dan niet van meerdere gebruikers) combineert, en kijkt of die combinatie een grotere kans heeft dat je over twee maanden single bent dan andere combinaties. Of het algoritme leest mee in de WhatsApp van je vrouw, en wist al lang dat ze van je af wilde.... Het is tegenwoordig mode om niet levende zaken menselijke eigenschappen te geven. Een soort Disney-ficatie, zoals je in Belle en het Beest zag. Niet levende objecten met menselijke trekjes. Twee voorbeelden zum kotsen vind ik bijvoorbeeld de radioreclame van Volkswagen. Dat zinnetje ".....zou hij van zichzelf zeggen...." is debiel. Een auto is geen "hij", en een auto zegt niets van zichzelf. En ook de radioreclame van Mercedes ("Hey Mercedes!") grenst aan het debiele. Praten tegen je auto alsof het een mens is. (Dat we dat bij Google wel doen vind ik iets logischer, want dat is een zoekmachine en die kan via human interface communiceren. Maar Mercedes gebruikt ook gewoon Google, maar wil graag dat je de auto aanspreekt met "Hey Mercedes!" zodat je de auto als je makker gaat beschouwen). Laat overigens wel zien dat beide merken hun berijders niet echt hoog inschatten... | |
#ANONIEM | zaterdag 9 oktober 2021 @ 22:42 |
GiGo is ook nog steeds van toepassing, er is weinig magisch aan en het sturende van algoritmes zie ik persoonlijk niet zo erg maar sommige mensen zijn makkelijk te beinvloeden. | |
PSVCL | zaterdag 9 oktober 2021 @ 23:31 |
De ironie ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |
Akathisia | zaterdag 9 oktober 2021 @ 23:36 |
Waarom niet beginnen bij de bedrijven die deze met bepaald oogmerk ontwikkelen en inzetten? Dáár kan je concreet grenzen stellen aan de mate van beïnvloeding. (Zoals een user hierboven duidelijk maakt: algoritmes opereren niet zelfstandig, maar komen tot een output door menselijke input.) Concreet: eis simplificatie en verbied beïnvloeding. Dit is niet nieuw maar valt vooral op omdat er nu een aantal vervormingen (bubbels) naast elkaar bestaan. Dat zou je zelfs winst kunnen noemen tov het kranten- of tv-tijdperk. [ Bericht 14% gewijzigd door Akathisia op 10-10-2021 00:17:29 ] | |
#ANONIEM | zaterdag 9 oktober 2021 @ 23:56 |
Ik snap hem niet, wat is daar ironisch aan? Ik ben niet degene die gelooft dat ze met zijn gesprekken meeluisteren dus wat bedoel je hiermee, eigenlijk? | |
#ANONIEM | zaterdag 9 oktober 2021 @ 23:59 |
Hoe dan? Wil je nu echt dat de overheid alle algoritmes gaan keuren en beoordelen of hoe stel jij je dat praktisch voor? Even voor de goede orde, bubbels kiezen mensen zelf voor, het is echt kinderspel om niet in een bubbel te blijven zitten. | |
Akathisia | zondag 10 oktober 2021 @ 00:16 |
Bij een verbod ga je uit van een effect op gedrag. Zoals bij de toepassing van de meeste wetten controleer je niet iedereen op naleving, maar controleer je met name wanneer er sprake is van aanleiding. Hier kan je gewoon kaders voor opstellen. | |
theguyver | zondag 10 oktober 2021 @ 13:54 |
die yutube advertenties slaan ook als een tang op een varken. tijdje terug had iemand reclame tijd ingekocht op youtube, en de reclame was een rickroll https://www.reddit.com/r/(...)ick_roll_people_who/ | |
PSVCL | maandag 11 oktober 2021 @ 00:17 |
https://www.bitchute.com/video/vpqjMWdPK4fV/ | |
theguyver | maandag 11 oktober 2021 @ 00:36 |
Ben er bekend mee hoor. Maar veelal slaan YouTube reclames als een tang op een varken. Overige reclame op zich niet. Maar goed.. YouTube Vance en addblocker en verder geen last van meer, dus welke reclame ik nu krijg? Geen idee. Ik zie het niet meer. | |
PSVCL | maandag 11 oktober 2021 @ 10:13 |
RM-rf | maandag 11 oktober 2021 @ 11:46 |
ehm... het ligt heel erg van je definitie van 'intelligentie' af.... maar een bewering dat een algoritme geen 'Vaardigheid' zou hebben is wel heel erg raar... het zijn juist pure gerichte vaardigheden: Algoritmes zijn in staat enorme hoeveelheden data (Big Data) snel te verwerken en op basis van aangetroffen patronen in deze data beslissingen te kunnen maken, zonder verder tussentijds ingrijpen van een menselijke 'operator'. Een interpretatie van de term 'intelligentie' is nu juist het vermogen dit te doen, problemen te analyseren, patronen te zien en op basis hiervan zelfstandig een oplossing te bedenken en te leren uit ervaring. Natuurlijk kun je stellen dat zolang algoritmes niet 'vrij' zelf kunnen bepalen waar ze wel of niet ingezet worden. Uiteindelijk zitten er tot nu toe altijd mensen achter die ze inzetten. maar ik durf wel degelijk te stellen dat wij mensen vermoedelijk niet in staat zullen zijn het moment te bemerken dat wij daarover geen controle meer hebben... Een interssant vooorbvbeeld is bv hoe Google Adwords algoritmes werken... niet enkel bepalen die welke eindgebruikers/consumenten 'interessant' zijn en wie een advertentie aangeboden kan worden... Google kent ook een algoritme dat bepaald wat de 'beste' adverteerders zijn, op basis van hun 'QS'-rating (Qualitative Score). Dat is een algoritme dat bepaald hoe 'goed' hun adverteerders zelf zijn, of deze advertentie en content aanbieden die ook bij hun gebruikers geliefd zijn en tot 'vervolghandelingen' leiden.. Deze adverteerders worden 'beloond' meer meer performance en meer interacties en bovenal ook lagere prijzen. Effectief betekent dat dat Google AdWords ook hun betalende klanten laat 'uitkiezen' door een algoritme. Het bedrijf laat dus ook zijn businesssmodel in de diepste essentie, namelijk het 'uitpikken met wie ze zaken doen', door een algoritme leiden. (alsof je bij de bakkerswinkel niet langer geholpen wordt op basis van volgorde van binnenkomst, maar de persoon die het meest te besteden heeft dan eerst en sneller behandeld wordt, dan iemand die eerder binnenkwam, maar misschien enkel een broodje wil kopen) Een diepergaand artikel over algoritmes en Digital Advertising: How Internet Platforms Use Artificial Intelligence to Target and Deliver Ads Om in BNW-termen te blijven... als de NWO ingevoerd zal worden is de kans groot dat dit niet door een 'Boze Elite' of door 'Reptillians' of 'Greys' bestuurd wordt, maar door algoritmes. Dat algoritmes uiteindelijk de beslissingen gaan nemen en men dat ook steeds verder aan hen overlaat.... tot op een moment dat de menselijke input eigenlijk steeds lager wordt, en misschien voor deze machines ook tot een hinbderlijke stoornis kan zijn in het streven naar steeds beter agerende algoritmes. ik heb hier niet voor niks 'algoritmes sturen ons' als titel gekozen; omdat dat al een realiteit _is_. Op heel veel punten in maatschappelijke interactie zijn al algoritmes aan het werk die 'sturend' optreden en hun effect is merkbaar... enerzijds in het streven naar steeds meer optimalisatie en automatisering (en bedrijven die ze toepassen zijn ook momenteel economisch het meest succesvol). Ik denk wel dat het goed is als mensen hiervan bewust zijn of worden. Ikzelf ben niet zo 'aktivist' dat ik gelijk ga roepen dat je 'er wat aan moet doen'... de kans is groot dat dat niet zomaar mogelijk is, maar bewustzijn hoe de wereld werkt en hoe ontwikkelingen agan is volgens mij wel belangrijk. | |
Knipoogje | maandag 11 oktober 2021 @ 13:34 |
Kan ook gewoon randomness zijn waar wij als mens toch graag een verband in zien. PSVCL heeft in die dagen/weken/maanden vast ook honderden reclames langs zien komen online die geen enkele relatie had met wat zijn vrienden bespraken op whatsapp. Maar áls het dan een paar keer gebeurt valt het op en is het meteen verdacht. | |
Tingo | maandag 11 oktober 2021 @ 17:55 |
Ik heb ook over gehoord. Spyware, word/speech recognition? Er was ook iets 'n aantal jaren geleden over 'smart' TV's of zo? | |
Tingo | maandag 11 oktober 2021 @ 18:01 |
10 jaar of zo terug zag ik 'n TV reclame voor 'n 'track your friend' of zo App. A stalkers/creepy jealous ex wetdream dus. Voor mij was dat al genoeg info om NIET 'n schmartphone te hebben. | |
ems. | maandag 11 oktober 2021 @ 20:30 |
Ook ik laat mijn levensloop bepalen door tv reclames. | |
theguyver | maandag 11 oktober 2021 @ 21:57 |
Beter is .. helemaal geen smartphone gewoon Nokia 3310. Mocht je toch een smartphone hebben adddblockers YouTube Vance en cleaning tools plus VPN. | |
Tingo | maandag 11 oktober 2021 @ 22:12 |
Nooit gehad. Jij kan beter je eigen advies nemen. | |
theguyver | maandag 11 oktober 2021 @ 23:12 |
Heb ik beide. | |
Tingo | maandag 11 oktober 2021 @ 23:14 |
Lekker belangrijk. Who fckin cares. | |
theguyver | maandag 11 oktober 2021 @ 23:45 |
Eh nja het heeft wel degelijk met dit topic te maken. En zo te zien kunnen hier wel een aantal wat tips gebruiken. Zodat je niet veel te maken krijgt met wat er in de OP staat. Incognito modus is ook een goeie.. en natuurlijk niet inloggen. | |
Paddo | maandag 11 oktober 2021 @ 23:45 |
Nee. Een kenmerk van vaardigheden is dat je ze aan zou kunnen leren. Algoritmes ("formules") leren geen vaardigheden, en hebben geen intelligentie. Het kan zo zijn dat om een formule te bedenken vaardigheden en intelligentie nodig zijn, maar een formule gaat niet op eigen houtje vaardigheden opvijzelen voor een nieuwe klus. En dit is enorm waar. Sterker nog: er kunnen verbanden ontdekt worden (patronen) die mensen niet snappen. En dat gebeurt met hele domme software, en heel veel kennis: de Big Data. De intelligentie waar jij het volgens mij over hebt schuilt niet in de formules, maar in de informatie waarmee de formules gevoed worden. Naar mijn mening mag Big Data verboden worden, want daar zit de foute kennis (informatie) in verstopt. Helaas. Try and error (in combinatie met veel rekenkracht) is geen intelligentie. Daarvoor zou lerend vermogen aanwezig moeten zijn. Waar ben je specifiek bang voor? Veel van deze systemen lezen input (big data) en geven als output een rapport. Er bestaan geen computers die zelf onderdelen aan zichzelf kunnen solderen, zodat ze opeens een wapen kunnen bedienen. En van een rapport "Ik ga iedereen doden !1!11!!" schrikt niemand. Je schetst hier precies wat Google met BIG DATA doet... En elke week een ander algoritme (tot frustratie van de SEO engineers). Dat is onmogelijk, algoritmes kunnen niet denken. Misschien zijn de mensen achter een algoritme evil, de Big Data is gevaarlijk. Pak die af, en hun algoritmes kunnen niets meer. Jij lijkt ook aan Disneyficatie te doen. Het saaie algoritme wordt allerlei eigenschappen toegedicht zodat hij ooit gevaarlijk zou kunnen worden. Ik denk ook niet dat ze bij Google bang hoeven zijn dat op een morgen alle algoritmes pleite zijn. Met zijn allen iets leuks gaan doen of zo. Het is dus zeker niet zo dat ik een groot gedeelte van de problemen die jij ziet niet zie, maar het verbieden van algoritmes lost het probleem niet op. Trouwens, een algoritme verbieden... Lijkt me aardig onmogelijk. E=MC2 wordt in Javascript: Var E = Math.pow((M * C, 2) ; En ik kan nog wel tien talen opsommen. Daarnaast zou een evil algoritme (wat dus volgens mij niet bestaat) waarschijnlijk ook telkens zijn eigen formules aanpassen? Lastig verbieden. Daarnaast is het nu al soms nagenoeg onmogelijk om een stuk code te ontwarren / reverse engineeren en weer in begrijpelijke formules om te zetten. Hoe ga je dat doen met gecompileerde algoritmes? Big data daarintegen... Vergeet niet, dat in jouw voorbeelden ook alle kennis in die Big Data verborgen ligt. Dus ook de scheiding binnen twee maanden van Facebook. Redelijk makkelijk te verbieden (AVG), controle op naleving is lastiger. Maar consumenten hebben zelf ook nog wat invloed. Ze kunnen niet kiezen welk algoritme Google gebruikt, maar ze kunnen anoniemer surfen, PI-Hole gebruike, Overgaan op Duck-duck go, enzovoort. | |
Akathisia | maandag 11 oktober 2021 @ 23:49 |
Hmm, zou je niet op basis van de kenbare uitkomst (= data in een bepaalde vorm, of sturing op een bepaalde wijze) het algoritme als functie daartoe kunnen verbieden zonder te weten waar het precies uit opgebouwd is? | |
Paddo | maandag 11 oktober 2021 @ 23:59 |
Hoe zou je dat willen vastleggen in wetgeving? Alle formules met de uitkomst 1337 zijn vanaf nu verboden? Vergeet niet dat de TS denkt dat algoritmes zichzelf kunnen muteren, dus algoritmes die 7331 als uitkomst hebben zijn ook verdacht... Andersom: als je niet mag vastleggen dat ik ziek/zwanger/gescheiden ben, kun je dat ook niet in je algoritmes proppen. En dat is veel makkelijker te verbieden. | |
RM-rf | dinsdag 12 oktober 2021 @ 09:37 |
algoritmes zijn geen formules... sorry, maar je begrip ervan zit volledig naast de realiteit. het valt het best te betitelen als een 'effective Method/Effective procedure' en is gericht op het oplosen van een 'Entscheidingsproblem'; Wat precies kan worden berekend of welke problemen opgelost wordt beschreven in de Church–Turing thesis (van Computability): https://en.wikipedia.org/(...)2%80%93Turing_thesis Ook je idee dat 'computers niet kunnen besluiten waar ze toegepast worden is lang niet zo absoluut en dogmatisch.... Punt is gewoon dat ook mensen niet werkelijk 'controle' hierover hebben en heel veel grote Big Data-ondernemingen hebben eigenlijk weinig direkte zicht op _hoe_ hun systemen nog werkelijk functioneren... Zoals ik al aangaf: het moment dat machoines in staat zullen zijn hierover zelfstandig beslissingen te nemen merken wij mensen niet, en zal gebeuren buiten onze direkte invloed. Ik vind het onjuist daar heel erg neerbuigend over te doen... ikzelf ben wat minder 'paranoide' (en betwijfel of ondernemingen als Google/Apple, Facebook en Amazon dit werkelijk nu al vrij en breed toepassen) maar technisch is het alllang mogelijk (bv systemen als Apple's Siri en Google Speech, alswel Aamazon Alexa zijn erop gebaseerd). Tevens is bv bekend dat zowel Apple als Google ooit medewewerkers liet 'meeluisteren' bij vrij opgenomen geluidstreams, deels om deze speech-functie beter te ontwikkelen (maar dat ging om manuele controle van wat automatische speech-analyse opleverde). br hier: https://www.theguardian.c(...)s-on-siri-recordings Ik betwijfel zelf vooral of deze bedrijven dit nu al breed doen omdat ik denk dat ze daarmee weinig voordeel nu halen en het juist eerder vooor hen tot een afwijzing van hun technieken kan komen als mensen zich 'bespioneert' voelen..... Als ze dit nu al zonder duidelijke toestemming doen is het ook reeel te denken dat er mogelijk door overheden actief tegen opgetreden wordt en extra wettelijke verboden op komen (wat ik eigenlijk ook wel een goed plan zou vinden) [ Bericht 20% gewijzigd door RM-rf op 12-10-2021 10:47:11 ] | |
PSVCL | dinsdag 12 oktober 2021 @ 09:48 |
Hoe bevalt dat , om zonder smartphone te leven? wil dat ook maar grijp telkens terug helaas | |
DrDarwin | dinsdag 12 oktober 2021 @ 10:10 |
Laatstleden hadden wij het hier in huis op een gezellige middag over de keer dat wij een weekend naar Disney Parijs zijn geweest. Wij zijn allemaal volwassen mensen en hebben het echt nooit over Disney, behalve op die middag waarop we herinneringen ophaalden en foto's hebben opgezocht. Toen ik later op de avond de pc opstartte werd ik ineens bedolven onder de Disney reclame uitingen, hier op FOK! en op nog een heleboel andere sites. Toeval? | |
Akathisia | dinsdag 12 oktober 2021 @ 10:40 |
Eigenlijk bedoelde ik dat laatste dus eigenlijk, maar dat dan ook geldt voor het manipuleren/sturen/''info-feeden'', etc. | |
Vis1980 | dinsdag 12 oktober 2021 @ 14:26 |
Je ziet spoken. Daarom. [ Bericht % gewijzigd door yvonne op 13-10-2021 12:05:49 ] | |
Vis1980 | dinsdag 12 oktober 2021 @ 14:28 |
Toevallig een google search gedaan op Disney? Tickets via internet gekocht? Als ik Xbox Live Gold haal online, ja dan zie ik overal die advertenties terugkomen van die site. Maar iemand anders telt hier dat het ook gebeurt nadat je met iemand gepraat hebt en dat is onzin. | |
PSVCL | dinsdag 12 oktober 2021 @ 15:54 |
Ahaa, het is weer allemaal toeval haha | |
DrDarwin | dinsdag 12 oktober 2021 @ 16:34 |
Niets van dat alles, het is dus geen onzin. | |
Vis1980 | dinsdag 12 oktober 2021 @ 16:38 |
Dikke kans dat je dan ingelogd hebt op het Wifi van Disney en daar akkoord bent gegaan met de verspreiding. Ik geloof niet dat Google je gevolgd heeft, dan zal je toch echt die informatie gegeven moeten hebben. Lulverhaal, dus. | |
Vis1980 | dinsdag 12 oktober 2021 @ 16:40 |
Nee geen toeval, dan heb je toch echt iets gedaan waardoor men dat weet en ben je ook nog akkoord gegaan met deze gang van zaken. Maar niet omdat jij met iemand gesproken hebt. Ga dat maar eens bewijzen dan. Oh, wacht daar doe je natuurlijk niet aan, het is veel makkelijker om te roepen dat het allemaal een complot is. | |
DrDarwin | dinsdag 12 oktober 2021 @ 16:45 |
"ingelogd hebt op het Wifi van Disney"??? Wat is dit voor nonsens? | |
Vis1980 | dinsdag 12 oktober 2021 @ 16:47 |
Wat dan, zat er iemand achter de bosjes te luisteren naar je? | |
Vis1980 | dinsdag 12 oktober 2021 @ 16:48 |
Er zijn veel variabelen. Als het bij je thuis was en een van je matties logt via jouw wifi in op google en zoekt daar iets op (kan zelfs op de wc), ja dan ga je dat soort reclame krijgen. Maar niet omdat je daarover aan het praten was. | |
The-BFG | dinsdag 12 oktober 2021 @ 17:33 |
Mwah ik hoor het meer, maar als het echt zo was dat Apple, Samsung of Google ons continu aan het afluisteren waren; dan had een beveiligings- onderzoeker of een simpele netwerkadmin al wel wat gevonden ;-) | |
PSVCL | dinsdag 12 oktober 2021 @ 17:47 |
Net opnieuw meegemaakt.. Was bij mn ouders op bezoek, na 5 min zei ik 'effe een bakje koffie zetten' , sta op en ga wat koffie zetten. Een uur later richting huis, open youtube... de eerste advertentie.. je raad het al Zin in een bakje koffie, bij Coolblue blabla Ook weer toeval? | |
Natalie | dinsdag 12 oktober 2021 @ 17:55 |
Mijn Google Assistent luistert ook altijd mee. Slaat soms aan als ik 'm niet eens roep. Ellendig ding. | |
RM-rf | dinsdag 12 oktober 2021 @ 18:10 |
nuja, daarover is wel eea bekend... bv dat bekend werd dat apple medewerkers meeluisterden met opnames van hun klanten die sex hadden en de iPhone device die dat opnam en naar apple stuurde... Apple reageerde wel streng en ontsloeg de betreffende medewerkers... alle 300 en natuurlijk wer 'schuld' van de werknemers.... ![]() https://www.thenewsminute(...)le-having-sex-108021 Toch lijken ook zulke gevalllen wel tevens aan te tonen d at het vrijwel onmogelijk is zulke praktijken geheel 'geheim' te houden en dat is de grond dat ik zeker het onwaarschijnlijk acht dat het heel grootschalig toegepast wordt.. los ervan dat het an sich technisch misschien best mogelijk is. (en bedrijven als Apple en Google er zeker graag gebruik van zouden willen maken als dat probleemlos zou kunnen) | |
The-BFG | dinsdag 12 oktober 2021 @ 18:34 |
Jup en Google had een soort gelijk geintje. Maar ik heb zelf Google Home speaker en merk eigenlijk nooit dat ik advertenties gebaseerd op gesprekken krijg. Wel op mijn zoek gedrag maar daar heb ik geen issues mee. | |
Bosbeetle | woensdag 13 oktober 2021 @ 10:25 |
Ik had laatst ook het vermoeden ik was een tv programma aan het kijken daarin zat een liedje dat leek op tribe called quests' "I left my wallet in el segundo" dat zong ik en zocht het daarna op op youtube. Ik typte "I" en youtube vulde aan ..."left my wallet in el segundo" terwijl ik hem nog nooit eerder heb gezocht. Toen dacht ik even is er geluisterd dat ik dat zong. Maar later bedacht ik me dat ik op dezelfde wifi de tv kijk en mijn telefoon heb, dus ze weten al dat ik dat tv programma kijk. En wellicht zijn er een aantal meer mensen geweest die juist op dat moment eenzelfde associatie hadden en dat daarom dat liedje in youtube een hogere kans tot vinden kreeg. Ikzelf vind het vooral erg onnodig dat men vrij ver gaat in voorspellingen van zoekgedrag. Ik snap dat het leuk is als je AI dat kan en dat het vrij eenvoudig is om zo'n model te maken als je de data hebt, maar is het nodig? Ik denk dat heel veel mensen in tech zich die vraag zelf niet eens stellen, het kan, het mag dus doen we het maar. Maar willen we het ook. | |
The-BFG | woensdag 13 oktober 2021 @ 11:08 |
Ik zelf heb één keer het vermoede gehad dat Google ons afluisterde. Ik moest benzo's afbouwen en op een gegeven moment kwam Google Assistant met het adres voor een afkickkliniek in LA toen ik om het adres van een winkel vroeg. Eerst dacht ik van "wtf' maar besefte me dat ik het niet echt over afkickklinieken gehad had en ook niet op gezocht.. Waar ik wel naar gezocht had waren tips om de afbouw zo comfortabel te laten verlopen als mogelijk en kwam dus wel af en toe op een afbouw schema op websites van afkickklinieken terecht... Meestal als je even realistisch nadenkt vind je al snel een verklaring.. | |
PSVCL | woensdag 13 oktober 2021 @ 14:15 |
Te confronterend om het gewoon toe te geven ![]() | |
RM-rf | woensdag 13 oktober 2021 @ 14:36 |
Overigens is dit best ingrijpende persoonlijke informatie die het algoritme wel goed aan je persoon kan koppelen; je omgang en gebruik van medciatie. Ik begrijp dat voor velen de hele 'discussie' of Google/Apple en hun mobiele devices ons afluisteren heel erg spannend is... maar erger is eigenlijk dat het misschien niet eens zo hard nodig is vooor deze algoritmes om zeer verregaande conclusies over ons persoonlijk leven te maken en die ook mogelijk langdurig op te slaan en in persoonlijke 'profielen' te koppelen. De realiteit is vermoedelijk eerder dat deze diensten ok bepaalde gedachten kunnen 'voorspellen'... ze mimicken de beslissings processen die mensen zelf ook hebben maar lijken hierin domweg sneller te zijn en creeren daardoor mogelijk een 'deja vu' gevoel.. ze bieden informatie bijna sneller aan dan dat de zoeker zelf realiseert waarnaar hij al op zoek is. Het hierboven gegeven voorbeeld van het dynamisch aanvullen van zoekopdrachten is er een prima voorbeeld van. Zoiets kan natuurlijk ook 'positief' toegepast worden, bv het snel traceren van mensen met psychische problemen en mogelijk zelfmoord-gedachtes en voordat zij daartoe kunnen overgaan hen al de nodige hulp aanbieden. Prediction algorithms: This is how computers “predict the future” | |
The-BFG | woensdag 13 oktober 2021 @ 16:38 |
Het kan allemaal heel nuttig gebruikt worden idd, maar ook op een verkeerde manier.. Gelukkig gaan overheden steeds meer dit soort zaken reguleren. Ik ben niet zo bang voor een wereld waarbij Google onze gezondheids- gegevens zomaar doorsluizen naar bijvoorbeeld verzekeraars.. Wat ik wel zie gebeuren is dat verzekeraars gaan komen met pakketten waarbij je korting krijgt als je via een gezondheid app laat zien dat je genoeg sport.. Dat moeten we niet willen.. | |
Bosbeetle | woensdag 13 oktober 2021 @ 16:57 |
Ze hoeven het niet door te sluizen, de verzekeraar kan zelf vrij eenvoudig dmv wat cookies op hun website en AI model proberen dingen van je te "ontfutselen" echt rocketscience is het allemaal niet. Zij hebben al informatie over je medische status het koppelen aan iets als surfgedrag is niet zo lastig. Het enige wat lastig is welke "vragen" je aan een neuraal netwerk gaat vragen. De rest is niet lastig. (en ja dat komt mede door google die hun api's vrij beschikbaar hebben gemaakt, ze stellen daar geen gebruiksvoorwaarden aan.) Het enige wat lastig is aan dit soort neurale netwerk modellen is de data die je erin moet stoppen. | |
Paddo | zaterdag 16 oktober 2021 @ 23:13 |
¿ qu'est-ce que c'est???? Algoritmes staan ook wel bekend als formules, maar niet alle algoritmes kunnen opgeschreven worden als formules, omdat het meer functions/methods (programmeertaal) zijn: een kleine eenheid die een bepaald probleem oplost. (dit is overigens nog lastig, want complexe algoritmes voldoen helemaal niet aan dat criterium. Het zijn series van programmas die met functions/methods werken, of andere i/o verwerkers. Het entscheidingsprobleem heeft hier NIETS mee van doen. Dat is wedstrijdje ("uitdaging") om een bepaald type algoritme te ontwikkelen. Wat nog niet gelukt is. Waarom haal je dat er in deze discussie bij? En leuk dat je Turing erbij haalt. "Elke mogelijke berekening kan door een algoritme op een turingmachine uitgevoerd worden, mits er genoeg geheugen en tijd beschikbaar is. " Helaas worden op dezelfde pagina al aardig wat rendvoorwaarden neergelegd waaraan een algoritme moet voldoen. Let wel: Als je er een algoritme van kan maken, kan de turingmachine het uitvoeren. In mijn ogen (en niet in de jouwe) zijn bewustzijn en aanverwante zaken geen algoritmes. Kijk ff op de Nederlandse Wikisite van de Turing Hypothese, dan zie je dat een algoritme aan een aantal voorwaarden moet voldoen om een algoritme te zijn: • Het algoritme bestaat uit een eindig aantal duidelijk gedefinieerde instructies. • Het algoritme geeft een antwoord binnen een eindig aantal stappen. • Het algoritme kan met pen en papier uitgevoerd worden. (in theorie) • Er is geen kennis nodig behalve hoe de instructies uitgevoerd moeten worden. En ik heb heel sterk de indruk (maar dit kan ik niet bewijzen geef ik eerlijk toe) dat jou angst-beeld dus volgens dit model geeneens een algoritme is.. Dit is moeilijk. Wij maken ons over hetzelfde zorgen, ik geef Big Data de schuld, jij formules.. pardon. algoritmes. Een computer hoeft niet slim te zijn om er de controle over te verliezen. Vorige maand Chernobil gezien (de mini-serie), en als ik het goed zeg is de ramp mede veroorzaakt door een ongewenste reactie van de software. En ook de Boeing 737-MAX die bij normaal gebruik opeens verkeerd reageert en de neus naar beneden drukt kan ik zo uitleggen. Zijn beiden algoritmes slim? Nee. Ik meen dat zelfs bij de Bijlmerramp (jaren '80) een autopilot de werkelijke piloot tegenwerkte, omdat ze elkaar niet begrepen. Dus in zo verre zijn algoritmes al best gevaarlijk. Maar dat "Ook je idee dat 'computers niet kunnen besluiten waar ze toegepast worden is lang niet zo absoluut en dogmatisch....". Wil de Chernobil software opeens evil worden en verhuizen naar mijn magnetron (via internet) ? Je kunt ervan uitgaan dat software zich onmogelijk vrij kan ontplooien (dus met veranderende source) en verspreiden. Virussen proberen wel eens de helft hiervan (verspreiden), en zelfs dat lukt slechts mondjesmaat. Ik zou nog tien grappen kunnen maken over dit punt, maar laat maar. Ik neem aan dat je het wel met me eens bent dat dit (verre) toekomstmuziek is? Dit speelt momenteel helemaal niet, dus is niet te verbieden, in discussies moet je je verdedigen dat er een hoop bij verzonnen is omdat dit op zijn vroegst over 10-30 jaar zou -kunnen- gebeuren....... Ga gewoon (net als moi) voor het verbieden van Big Data. Is reëel. Het is bewijsbaar, het bestaat, kan computers helpen heel verkeerde dingen te leren. En we hebben het tij mee: mede door AVG/privacy waakhonden en de EU ligt de data-verzameldrift toch al onder een vergrootglas. En als ik jou begrijp lost het verdwijnen van Big Data ook de helft van jou probleem op. ![]() |