Zoals elke databasebeheerder kent , veel dingen kunnen uitvoeringstermijn en de prestaties van een database script beïnvloeden . Om een snelle verwerking databank te behouden , behoud CPU-bronnen en zorgen voor toegankelijkheid voor database- gebruikers , databasebeheerders routinematig werken om hun scripts te optimaliseren , het creëren van trace bestanden die verschillende functies te loggen om te helpen adminstrators diagnosticeren script problemen . Hoewel deze trace -bestanden zijn vaak log en moeilijk te interpreteren , Oracle's database-programma TKPROF analyseert trace file data en presenteert deze op een ordelijke tafel. Database administrators moeten nog begrijpen TKPROF 's productie codes om zijn rapporten interpreteren . Instructies 1 Raadpleeg de tabel met primaire gegevens voor een brede kijk op de analyse van het script van de hulpprogramma 's . De " parse " regel geeft informatie over het aantal processen gebruikt om de zoekopdracht van de gebruiker om te zetten in een actie , onder opgave van het aantal parsing oproepen , de verstreken tijd in honderdsten van een seconde , de schijfcapaciteit wordt gebruikt om de functie uit te voeren , hoeveel databank vragen de functie nam , en het aantal rijen met gegevens die door de query . De "execute "-lijn geeft algemene informatie over de gebruikte middelen als de database verwerkt de aanvraag , en de ' fetch ' lijn biedt dezelfde informatie over de prestaties van de machine als het gegevens uit de database haalt . Kopen van 2 Zoek elementen van het dossier verslag trace gepresenteerd door TKPROF die ongewoon hoge lezen . Fetch gegevens vaak meer proces - intensief dan ontleden en uitvoeren . 3 Onderzoek query- syntax als de gegevens wijst op een langzame of CPU - intensieve parse . Slow parsing kan soms door herordening querysyntaxis worden vastgesteld om efficiënter of het verstrekken van meer specifieke begrenzers op queries functioneren. 4 gegevens op Toepassen in het uitvoeren gebied om te bepalen of de query is te omslachtig voor de SQL -server efficiënt verwerken . Nogmaals , kan dit probleem worden opgelost door een efficiëntere query , of door beperking van het aantal zoekopdrachten of databases gehuisvest op een enkele server . 5 Onderzoek fetch data statistieken om de processen van de data-extractie te analyseren . Haalt kan gestroomlijnd door het sorteren van gegevens met groepen resulteert in oplopende grootte zijn , een proces ingebouwd in query- en uitvoeringsfase van het script , maar ook database- constructie om omvang van de database te beperken . < br > |