Maar bijvoorbeeld: dit zijn 1024 willekeurige 1'en en 0'en: http://compumania.nl/01.phpquote:Op woensdag 20 juli 2005 20:16 schreef gelly het volgende:
[..]
Je moet niet gelijk aan filmpjes denkenIk heb het getest op bestanden van een paar 100 kb. Ook alleen maar om te kijken of een dergelijke benadering zou werken, en dat deed het. Het mooie van zo'n systeem is dat hoe groter een bestand is, hoe groter de compressie factor. Uiteraard vergt het nogal wat rekenkracht om bestanden op een dergelijke manier te comprimeren, zeker als de bestanden groter worden.
The .productquote:Op dinsdag 19 juli 2005 09:11 schreef bonke het volgende:
[..]
ik weet alleen niet of dat laatste punt ook waar is
heb het namelijk een jaar ( of langer) terug eens geinstalleerd
en ik zat dus echt in een 3d omgeving waar je normaal mb`s voor nodig hebt ipv kb`s
misschien is ter iemand die weet hoe het heet of waar je het kan halen
Je scoort redelijk op de crackpot index.quote:Op woensdag 20 juli 2005 20:16 schreef gelly het volgende:
Je moet niet gelijk aan filmpjes denkenIk heb het getest op bestanden van een paar 100 kb. Ook alleen maar om te kijken of een dergelijke benadering zou werken, en dat deed het. Het mooie van zo'n systeem is dat hoe groter een bestand is, hoe groter de compressie factor.
Wat was het voor data dan? Speciaal geprepareerde bestanden? Want met random bestanden gaat dat niet lukken.quote:Op woensdag 20 juli 2005 20:16 schreef gelly het volgende:
Je moet niet gelijk aan filmpjes denkenIk heb het getest op bestanden van een paar 100 kb. Ook alleen maar om te kijken of een dergelijke benadering zou werken, en dat deed het. Het mooie van zo'n systeem is dat hoe groter een bestand is, hoe groter de compressie factor. Uiteraard vergt het nogal wat rekenkracht om bestanden op een dergelijke manier te comprimeren, zeker als de bestanden groter worden.
Deze is ook stoer.. en iets recenter. Echt ongelooflijk wat allemaal uit 64 KB code kan komen...quote:
Sommige mensen willen de hoop gewoon niet opgeven he...quote:Op woensdag 20 juli 2005 21:11 schreef Danny het volgende:
Opzich een fraai concept Gelly.
Je kunt natuurlijk van buiten naar binnen werken in ronde cijfers en hier wiskundige notatie voor gebruiken en dat vervolgens elke keer een stap verder doen.
Zo krijg je een reeks wiskundige notaties die 'uitgepakt' weer het volledige bestand herstellen. Ik zie zoiets wel redelijk werken.
Het is nu toch wel duidelijk dat er iemand aan het trollen is :-)quote:Op woensdag 20 juli 2005 21:36 schreef gnomaat het volgende:
Sommige mensen willen de hoop gewoon niet opgeven he...
quote:Op woensdag 20 juli 2005 21:36 schreef gnomaat het volgende:
[..]
Sommige mensen willen de hoop gewoon niet opgeven he...
Goed, ik heb een voorstel: ik stel een paar bestanden beschikbaar. Gelly of wie dan ook maakt twee progjes waarmee die bestanden gecomprimeerd en weer gedecomprimeerd kunnen worden. Als hetzelfde programma vervolgens een paar andere (vergelijkbare) bestanden tot 90% weet te comprimeren (dus er blijft nog 90% van de oorspronkelijke grootte over, m.a.w. er hoeft slechts 10% vanaf) betaal ik er geld voor. Niet om het algoritme te kopen ofzo, puur voor de prestatie
Die eerste bestanden zijn zodat je kunt "oefenen" of je algoritme kunt tweaken. Dat ze vergelijkbaar zijn kunnen we bijvoorbeeld zo definiëren: ik stuur tien password-protected zipfiles met daarin ieder een bestand van 100 kilobyte, en je mag kiezen van welke vijf je de passwords wil hebben. Als je programma af is geef ik de passwords voor de andere vijf files, en daarmee gaan we het dan testen. Zeg maar welk "prijzengeld" je redelijk zou vinden om deze wedenschap aan te gaan. En als het niet lukt hoef je niks te betalen
In plaats van 100 kilobyte vind ik iedere grootte tussen 10 en 1000 kilobyte ook prima.
quote:Op woensdag 20 juli 2005 22:13 schreef gelly het volgende:
Ik zal het programma moeten herschrijven, maar ik kom d'r nog op terug.
Sterker nog, binnen een minuut: wat er in die hele hype beweerd werd was wiskundig domweg uit te sluiten, theoretisch onmogelijk, period.quote:Op woensdag 20 juli 2005 22:02 schreef Lynx666 het volgende:
En wij denken een systeem te kraken (hard- en software) binnen een paar dagen, waar de uitvinder/oplichter zelf 12 jaar lang aan gewerkt en geexperimenteerd heeft.
Hoe wil je de kreet "16 films in 64Kb" dan noemen?quote:En kap nou eens met dat woord "comprimeren".
Ik zou wel eisen dat alle bestanden minstens tot 90% worden verkleind, en niet dat er gemiddeld 90% minder data is na de bewerking.quote:Op woensdag 20 juli 2005 21:36 schreef gnomaat het volgende:
Sommige mensen willen de hoop gewoon niet opgeven he...
Goed, ik heb een voorstel: ik stel een paar bestanden beschikbaar. Gelly of wie dan ook maakt twee progjes waarmee die bestanden gecomprimeerd en weer gedecomprimeerd kunnen worden. Als hetzelfde programma vervolgens een paar andere (vergelijkbare) bestanden tot 90% weet te comprimeren (dus er blijft nog 90% van de oorspronkelijke grootte over, m.a.w. er hoeft slechts 10% vanaf) betaal ik er geld voor. Niet om het algoritme te kopen ofzo, puur voor de prestatie
Die eerste bestanden zijn zodat je kunt "oefenen" of je algoritme kunt tweaken. Dat ze vergelijkbaar zijn kunnen we bijvoorbeeld zo definiëren: ik stuur tien password-protected zipfiles met daarin ieder een bestand van 100 kilobyte, en je mag kiezen van welke vijf je de passwords wil hebben. Als je programma af is geef ik de passwords voor de andere vijf files, en daarmee gaan we het dan testen. Zeg maar welk "prijzengeld" je redelijk zou vinden om deze wedenschap aan te gaan. En als het niet lukt hoef je niks te betalen
In plaats van 100 kilobyte vind ik iedere grootte tussen 10 en 1000 kilobyte ook prima.
Co-de-ren.quote:Op woensdag 20 juli 2005 22:19 schreef gnomaat het volgende:
[..]
Hoe wil je de kreet "16 films in 64Kb" dan noemen?
Och, als iemand vijf bestanden van ieder 100 Kb weet te reduceren tot vijf andere bestanden die bij elkaar niet groter dan 450 Kb zijn, dan vind ik dat voldoendequote:Op woensdag 20 juli 2005 22:20 schreef XoxIx het volgende:
Ik zou wel eisen dat alle bestanden minstens tot 90% worden verkleind, en niet dat er gemiddeld 90% minder data is na de bewerking.
Sloot, 1999: "Al langere tijd wordt er gezocht naar compressietechnieken om data zo klein mogelijk op een drager op te slaan. Met de huidige technieken is het, voor zover bekend, niet mogelijk om een compressie van minder dan 50 procent te halen. Aangezien ik er ook niet in geloof dat er een compressie-techniek mogelijk is om bijvoorbeeld een videofilm op te slaan met een opslagcapaciteit van minder dan 100KB - één seconde beeld kost minstens 1MB, 90 minuten dus 5400MB - ben ik op zoek gegaan naar een andere methode. Na jarenlange experimenten ben ik erin geslaagd met een heel nieuwe techniek, zonder gebruik te maken van compressie-technieken, alle soorten van data op een drager van maximaal 128KB op te slaan en vervolgens weer af te spelen zonder verlies van kwaliteit en snelheid (elke bit wordt exact weer teruggelezen zoals hij is ingelezen). Elke vorm van data (beeld, geluid, tekst) wordt hierbij gecodeerd tot een sleutel die n KB bevat. Door deze sleutel weer aan te bieden aan een programma dat deze sleutel met enorme snelheid kan decoderen tot exact dezelfde informatie die eerder is gecodeerd. Hiermee heb ik een nieuwe techniek ontwikkeld die bewijst dat compressie zinloos is en deze nieuwe techniek (SDCS) alleen maar toekomstperspectief biedt".quote:Op woensdag 20 juli 2005 22:19 schreef gnomaat het volgende:
Hoe wil je de kreet "16 films in 64Kb" dan noemen?
En door het coderen te noemen houdt "16 films in 64 Kb" ineens niet in dat er enorm veel ruimte bespaard wordt, ondanks dat dat wel de vermeende prestatie was waar zo mee gehyped werd rond deze uitvinding?quote:Op woensdag 20 juli 2005 22:24 schreef yootje het volgende:
Co-de-ren.
Nou alsjeblieft, een duidelijkere aanwijzing dat het een hoax is kan ik me niet voorstellen. Want er zijn slechts 2n*8192 verschillende sleutels van n KB, en 2(n+1)*8192 verschillende stukken data van (n+1) KB die je volgens dit betoog van Sloot zou moeten kunnen coderen in een sleutel van n KB en waar het programma de oorspronkele data van (n+1) KB weer uit kan decoderen. Tegenspraak, QED.quote:Op woensdag 20 juli 2005 22:33 schreef Lynx666 het volgende:
Sloot, 1999: "Al langere tijd wordt er gezocht naar compressietechnieken om data zo klein mogelijk op een drager op te slaan. Met de huidige technieken is het, voor zover bekend, niet mogelijk om een compressie van minder dan 50 procent te halen. Aangezien ik er ook niet in geloof dat er een compressie-techniek mogelijk is om bijvoorbeeld een videofilm op te slaan met een opslagcapaciteit van minder dan 100KB - één seconde beeld kost minstens 1MB, 90 minuten dus 5400MB - ben ik op zoek gegaan naar een andere methode. Na jarenlange experimenten ben ik erin geslaagd met een heel nieuwe techniek, zonder gebruik te maken van compressie-technieken, alle soorten van data op een drager van maximaal 128KB op te slaan en vervolgens weer af te spelen zonder verlies van kwaliteit en snelheid (elke bit wordt exact weer teruggelezen zoals hij is ingelezen). Elke vorm van data (beeld, geluid, tekst) wordt hierbij gecodeerd tot een sleutel die n KB bevat. Door deze sleutel weer aan te bieden aan een programma dat deze sleutel met enorme snelheid kan decoderen tot exact dezelfde informatie die eerder is gecodeerd. Hiermee heb ik een nieuwe techniek ontwikkeld die bewijst dat compressie zinloos is en deze nieuwe techniek (SDCS) alleen maar toekomstperspectief biedt".
staat toch bijna letterlijk: "ieder willekeurig stuk data kan in 128KB worden opgeslagen en daar weer in oorspronkelijke staat uit worden gehaald". Want natuurlijk een evidente leugen is.quote:Jan sloot zei:
Na jarenlange experimenten ben ik erin geslaagd met een heel nieuwe techniek, zonder gebruik te maken van compressie-technieken, alle soorten van data op een drager van maximaal 128KB op te slaan en vervolgens weer af te spelen zonder verlies van kwaliteit en snelheid (elke bit wordt exact weer teruggelezen zoals hij is ingelezen).
Een één of ander efficiënt analoog medium met een datacapaciteit equivalent aan vele gigabytes. Als technicus die meer met schroevendraaiers en transistors werkte dan met bits, bytes en harde wiskunde, zie ik hem zoiets eerder uitvinden dan een (theoretisch onmogelijke) coderingstechniek.quote:Op woensdag 20 juli 2005 23:03 schreef Lynx666 het volgende:
Stel, Sloot is een oplichter. Hij weet de grote bazen van Silicon Valley te laten omvallen van verbazing om wat ze op het scherm zien dat uit het kastje moet komen. Nogmaals: beeldvullend vloeiend beeld van een willekeurige film, spoelt voor- en achteruit met hetzelfde gemak, dat was in die tijd met een normale laptop zeker niet haalbaar, al had je de film ongecomprimeerd op een harde schijf staan. Wát moet er dan in het kastje hebben gezeten wat die snelheid toch leverde?
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |