Maar op basis van wat moet ik het genereren? Of maakt dat niet zo veel uit?quote:Op zondag 24 februari 2008 12:49 schreef Igen het volgende:
[..]
Alleen user-ID en wachtwoord in een cookie opslaan is net zo onveilig, want ook deze combinatie is in principe oneindig lang geldig. Dat de cookie misschien een vervaldatum heeft doet er niet toe, want die is slechts een hint voor de webbrowser en voegt dus geen veiligheid toe.
Kortom: je moet in je cookie een gegeven (controlenummer) opslaan, dat je ook op de server ergens noteert. En dit gegeven moet op de server een beperkte geldigheid hebben.
SuperRembo: UserID + SessionID is toch net zo veilig? Of doe ik nu ook dom?
Wie zegt iets over zelf doen? Wat jij bedoelt is een "session cookie", en dat is dus ook gewoon een soort cookie. Daar ging het me vooral omquote:Op zondag 24 februari 2008 18:34 schreef Xcalibur het volgende:
[..]
waarom zou je daar zelf moeilijk mee doen, als je het PHP ook lekker zelf kan laten doen?
damnquote:Op zondag 24 februari 2008 20:10 schreef CraZaay het volgende:
Ja, en wel meer ook waarschijnlijk. Ik moest laatst om een XML-file te kunnen parsen met parse_to_struct() (ofzo) een gig reserveren
nog een one.commerquote:Op zondag 24 februari 2008 20:15 schreef qu63 het volgende:
[..]
damn
de instellingen bij one.com kunnen niet gewijzigd worden, dus ik ben de lul geloof ik
Een plaatje van 3000x2000 pixels kan zo 3000x2000x3 = 18MB aan geheugen gebruiken.quote:Op zondag 24 februari 2008 20:15 schreef qu63 het volgende:
[..]
damn
de instellingen bij one.com kunnen niet gewijzigd worden, dus ik ben de lul geloof ik
Wat bedoel je daar mee, zelf laten doen?quote:Op zondag 24 februari 2008 18:34 schreef Xcalibur het volgende:
[..]
waarom zou je daar zelf moeilijk mee doen, als je het PHP ook lekker zelf kan laten doen?
helpdesk gevraagd, en dat kan dus nietquote:Op zondag 24 februari 2008 20:44 schreef PiRANiA het volgende:
[..]
nog een one.commer
Het klopt, ze kunnen volgens mij niet veranderd worden... Je kan het ze vragen, de helpdesk is er toch altijd...
Tot nu toe ben ik zelf nog niet tegen beperkingen aan gelopen, behalve dat ik geen CRONJOBS kan installen...
klint goed, maar idd:quote:Op zondag 24 februari 2008 20:51 schreef SuperRembo het volgende:
[..]
Een plaatje van 3000x2000 pixels kan zo 3000x2000x3 = 18MB aan geheugen gebruiken.
Knip het plaatje in 4 stukken, resize die stuk voor stuk, plak ze daarna weer aan elkaar. En als dat nog niet genoeg is moet je meer stukken gebruiken
psies, weet je hoe?quote:Volgende probleem: hoe knip je een plaatje in stukken zonder het in z'n geheel in het geheugen te laden?
Je kunt ook nog kleinere plaatjes uploadenquote:Op zondag 24 februari 2008 19:49 schreef qu63 het volgende:
ben een soort van bezig met een image upload en resize script, alleen mn host staat maar 16MB als memory_limit toe.
Nu 'crasht' het script dus steeds omdat hij dus geen gehuegen meer heeft. Heeft PHP echt zoveel geheugen nodig om een plaatje te uploaden, resize naar max 600px breed of hoog, en resize naar max 200px breed of hoog?
Dat is ook een optie idd.quote:Op zondag 24 februari 2008 22:47 schreef Light het volgende:
[..]
Je kunt ook nog kleinere plaatjes uploaden
Of het plaatje via html kleiner maken en dan een screenshot maken met php, als dat kanquote:Op zondag 24 februari 2008 22:47 schreef Light het volgende:
[..]
Je kunt ook nog kleinere plaatjes uploaden
PHP heeft een prima session management om je ingelogd te houden... je moet wel een goede reden hebben als je dat niet wilt gebruiken en je eigen systeem te bouwenquote:Op zondag 24 februari 2008 21:01 schreef Tarabass het volgende:
Wat bedoel je daar mee, zelf laten doen?
Helaas zal dat niet gaan. Niet mijn eigen site, wel een site die ik aan het maken benquote:Op maandag 25 februari 2008 09:03 schreef CraZaay het volgende:
Of gewoon een host zoeken waar je wél kunt doen wat je wilt zonder kunstgrepen en/of de interactie aan te passen
Indexes op mysql tabellen geven wel snelheidswinst maar ze zijn niet zaligmakend. Je kan maar zoveel met indexes doen, maar er zijn tig redenen voor een trage search. Het kan aan niet optimale code of queries aan jouw kant liggen. Of misschien ligt het echt alleen aan de hoeveelheid data of de manier waarop die opgeslagen wordt. Dat kun je wellicht efficienter maken door je data anders op te slaan, minder data op te slaan, of desnoods een datamart of meta index (een index van een index) van je data maken.quote:Op maandag 25 februari 2008 21:26 schreef The_Terminator het volgende:
Vraagje
Moet je bij het maken van een index eerst de oude droppen of wordt de al beschikbare automatisch overschreven?
Mijn FokSearch database wordt namelijk trager en trager na het indexeren van meer woorden, in het begin hielp het indexeren nog wel maar ik merk nu eigenlijk geen verschil als ik het opnieuw indexeer.
Opzich is het niet traag, meestal doet het script er 0,1 sec of nog minder over om iets te vinden. Het gaat mij erom dat ik merk dat het steeds trager begint te worden, en ik ben bang dat het na verloop van tijd alleen maar achteruitgaat met de snelheid.quote:Op maandag 25 februari 2008 22:04 schreef Farenji het volgende:
[..]
Indexes op mysql tabellen geven wel snelheidswinst maar ze zijn niet zaligmakend. Je kan maar zoveel met indexes doen, maar er zijn tig redenen voor een trage search. Het kan aan niet optimale code of queries aan jouw kant liggen. Of misschien ligt het echt alleen aan de hoeveelheid data of de manier waarop die opgeslagen wordt. Dat kun je wellicht efficienter maken door je data anders op te slaan, minder data op te slaan, of desnoods een datamart of meta index (een index van een index) van je data maken.
Maar misschien dat je eens kan beginnen met hoe je datamodel eruitziet en wat voor soort indexes op welke columns je gebruikt.
Waarom zou die piepen bij 120.000 records? Zoveel is dat toch niet?quote:Op maandag 25 februari 2008 22:21 schreef ErikN het volgende:
Weet iemand een manier om dubbele MySQL records te verwijderen.
Ik heb een tabel met ongeveer 120.000 records. Sommige records zijn dubbel, met uitzondering van een unieke ID. Is het mogelijk om dubbele records te verwijderen met een query?
Een alternatief is een PHP script, maar die gaat waarsch. piepen bij 120.000 records...
Mijn PHP import scripts kunnen maximaal 10.000 per keer aan (op mijn brakke ontwikkel PC).quote:Op maandag 25 februari 2008 22:31 schreef CraZaay het volgende:
Waarom zou die piepen bij 120.000 records? Zoveel is dat toch niet?
Ik zou zo geen query weten overigens.
Dan is niet alleen je PC brak.quote:Op maandag 25 februari 2008 22:32 schreef ErikN het volgende:
[..]
Mijn PHP import scripts kunnen maximaal 10.000 per keer aan (op mijn brakke ontwikkel PC).
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |