Alle databases vereisen voortdurende onderhoud en beheer met het oog op hun efficiëntie en snelheid te behouden . Verkennen we verschillende technieken die worden gebruikt door database- managers om ervoor te zorgen dat hun gegevens veilig zijn , en hun software blijft presteren als dat nodig is . Gegevens Normalization Normalization betekent dat alle gegevens in de gegevensbank ingevoerd op dezelfde manier . . Is het cruciaal om de functionaliteit van een database , en moet voortdurend gecontroleerd worden als een gegevensbank routinematig wordt bijgewerkt met de hand gespoten gegevensinvoer Neem bijvoorbeeld de volgende drie namen : John Smith , Jonathan Smith , Jonathan R. Smith . Een menselijke lezer kan begrijpen dat alle drie de namen verwijzen naar dezelfde persoon , dus toen John Smith noemt vragen over een bestelling die werd verzonden naar Jonathan , kan zijn behoeften goed worden behandeld . Een databank kan echter niet de verbinding tussen deze drie namen Evenzo maken en hen beschouwen als drie afzonderlijke klanten ( met drie aparte bestelling geschiedenissen ) indien alle drie staan vermeld hand . , Deze nummers verschijnen hetzelfde : (215) 555-2150 en 215-555-2150 . Maar ze zijn niet hetzelfde met een database ; afhankelijk van hoe de software omgaat streepjes in tekenreeksen , het eerste nummer is twee woorden , maar de tweede is slechts een . Elke programmatische script dat een netnummer selecteert door het ontleden door woord , bijvoorbeeld , zal falen bij het overwegen van het tweede nummer De beste manier om normalisering problemen te voorkomen is met strikte gegevensinvoer controle : . Ofwel voorkomen dat een gebruiker uit te voeren misvormde data , of beter nog neem die gegevens en formatteren voordat intern opbergt. Een telefoonnummer veld kon weggooien alles dat niet een 0-9 cijfers en voeg haakjes en streepjes - maar het moet eerst alfanumerieke telefoonnummers om te zetten of te weigeren als 800-MY-PHONE Database . fysieke grootte , RAM Usage en Speed Databases neiging om te groeien in de tijd , het is gebruikelijk voor bedrijven om zich te concentreren op het invoeren van nieuwe gegevens in hen , maar veel minder aandacht te besteden aan het ruimen oude en ongebruikte data out . Het is zelden een goed idee om oude gegevens weg te gooien , het is altijd mogelijk dat een aantal cruciale informatie in de toekomst zullen worden verkregen door het aggregeren en analyseren van het verleden database records Dit betekent dat de database manager moet letten . de fysieke grootte van de database opgeslagen op schijf . In het algemeen , is het belangrijk om een enorme hoeveelheid vrije ruimte boven op de opslag drives te houden, op die manier , een schurkenstaat script dat ongeluk creëert een miljoen nieuwe records per uur niet in staat is te vullen een drive en veroorzaken een kritische databank crash voordat het kan worden gestopt . Managers moet ook aandacht besteden aan hoe hun oorspronkelijke programmering veronderstellingen veranderen in de tijd , zoals databases krijgen groot . Database zoekopdrachten trek gegevens van de schijf en in het RAM- geheugen, dat een plafond voor een efficiënte zoekmachine algoritmen creëert , een zoektocht die was onmiddellijk over 10.000 dossiers kan uren duren als het aantal records doorzocht is 250000 . Zoek en programmering algoritmen moet regelmatig worden getest en getimed , zodat ze kunnen worden verbeterd als nodig tegen grotere gegevenssets .
|