A DVD lemezen (a CD-hez hasonlóan) az adatok fizikai adatszervezése nem ugyanazt a sorrendet, elvet követi, mint ahogy a feldolgozott (kiírni szándékozott, vagy a lemezről már beolvasott) felhasználói adatokat mi látjuk. Az egymást követő adatbájtok és az ebből képzett nagyobb egységek (szektorok) nem követik egymást libasorban, hanem az adatok egy bonyolult kódolási és átrendezési elv szerint kerülnek a lemezre, hogy az egy szektorhoz tartozó adatok minél szélesebb ívben legyenek szétszórva. Ez azért van így, hogy egy esetleges fizikai sérülés (vagy anyaghiba) ne egy komplett adatszektort tegyen olvashatatlanná a kijavítás esélye nélkül, hanem inkább sok jelentéktelen (az adatszervezésben és kódolásban használt hibajavító algoritmusnak köszönhetően kijavítható) sérülést okozzon több szektor mentén. Az adatok ilyetén ''átszövése'', összekeverése és a hibajavító adatok hozzáadása tehát elég bonyolult folyamat, akár dekódolásról, akár az írásról beszéünk. Mivel a tárolt jelek igen aprók, ezért kis hibák, olvasási bizonytalanságok minden lemezen vannak (még a gyári korongokon is). Hiába digitális adathordozó a DVD, addig a pontig, amíg a digitális adat nem áll össze, még sok hibával, bizonytalansággal kell megküzdenie az optikának és az adatokat konvertáló vezérlőegységnek.
A minőségi ellenőrzésekkel lehet lemérni, hogy a lemez melyik pontján milyen sokat kell küzdeni az olvasás közben a drive-nak, mennyire aktív a hibajavító algoritmus, azaz milyen súlyos hibák találhatók a lemezen.
A számok
minél alacsonyabbak, annál jobbak, de attól még hogy a CDSpeed program támogatja az íródat az ilyen teszt futtatásához,
még nem biztos, hogy a kapott eredményt össze lehet hasonlítani más meghajtók méréseivel, illetve egyáltalán nem biztos, hogy a szabvány által javasolt értékekhez érdemes hasonlítani - ugyanazzal az íróval készült minőségi tesztek egymás közötti összehasonlításra
talán megteszik.
A minőségi ellenőrzés (PI(F)/PO(E) stb. hibák leolvasása) valójában arra épít, hogy a meghajtó a lemez olvasása közben érzékelt lemezhibákról, a hibajavítás alacsony szintű működéséről tud-e menet közben korrekt tájékoztatást adni. Erre
nem minden meghajtó képes (általában a meghajtókhoz a gyártó által fejlesztett célprogram szokott beválni erre a célra, lásd a Lite-ON drive-ok és a KProbe, avagy a Plextor és a PlexTools példáját), valamint nem mindegyik drive ad vissza a szabványos határtértékek mentén értelmezhető eredményeket. Ergo a meghajtók többsége a CDSpeed programmal - még ha képes is a minőségi ellenőrzésre - nem ad vissza akkurátus, értékelhető eredményeket, legfeljebb ugyanazon meghajtóval kapott eredmények összehasonlításának van értelme - más meghajtókkal kapott eredményekhez, vagy a szabványban deklarált hibahatárokhoz való viszonyítás értelmetlen. Különösen a meghajtók összehasonlítása dőreség így (sokan csinálják ezt). Tehát ha X meghajtóval teszteltél a CDSpeed programban egy lemezt a minőségi ellenőrzéssel, és ott mondjuk 98%-ot kapott, akkor az Y meghajtóban (amely eltérő típusú ídrive X-hez képest) ugyanerre a lemezre kapott 90%-os minőségi eredmény SEMMILYEN összehasonlításra nem ad alapot a meghajtók képességeit tekintve, mivel több mint valószínű, hogy teljesen eltérő módon adják vissza a hibajavítási folyamat részleteit, így ezek összehasonlítása olyan, mintha két eltérő számrendszerben leírt számot pusztán a számjegyek numerikus értékei alapján akarnál összemérni a saját rendszeredben, és nem a valós (helyi)értékek mentén vizsgálnád őket.
A minőségi ellenőrzések során kapott értékek értelmezése: ezek a számok a nagyobb logikai egységbe fogott adatmezők szabványban definiált tömbjeire adják meg a tömbre jutó, a dekódolás során igénybe vett hibajavítási adatokat, hibás bájtok, frame-ek számát, azaz hogy milyen aktívan kellett dolgoznia a hibajavító algoritmusnak az olvasás során (magyarán: minél alacsonyabbak az értékek, annál jobb a lemez).
Az ECMA 337-es szabványkönyvet töltsd le a netről. A PI, PIF hibák az egy ECC blokkra, azaz 16 egymást követő, már beforgatott, úgynevezett "scrambled" (azaz a biztonságos leolvasás érdekében a szinkronizációs jelekkel és fejlécekkel ellátott) frame tartalmának 172 bájt széles (172 oszlopos), 192 soros tömbbe szervezett adataira jutó detektált, de még javítható hibák számát adják meg, általában úgy, hogy 8 egymást követő ECC blokkra vetítve jelzi a PI hibákat, illetve 1 ECC-re vetítve a súlyosabb, PI-uncorrectable, azaz PIF hibákat. 8 ECC blokkra vetítve a PI hibák száma nem lehet magasabb 280-nál, illetve ECC blokkonként a PIF hibák száma nem haladhatja meg a 4-et. De mint írtam, ezek az adatok csak abban az esetben tekinthetők irányvonalnak, ha az adott diganosztikai program valóban olyan szinten tudja a dekódolás közben érzékelt hibajavító adatokat kinyerni a meghajtóból, ahogy az a szabványnak megfelelő. Mivel ez a képesség a menet közbeni hibajavító adatok átadásáról alapból nem "kötelező" a meghajtók részére, így nagyon óvatosan kell kezelni a kommersz, nem kimondottan meghajtó- és firmware-optimalizált tesztprogramok által adott PI/PIF értékeket - könnyen lehet, hogy közük nincs a valósághoz - legalábbis a szabványos határtékekhez, - ugyanis semmi nem garantálja, hogy a dekódolás azon szakaszán és úgy keletkeznek ezek az adatok, ahogy azt a szabvány definiálja.
Én a Plextor PX-712, 716 és 755 írókat használom ilyen ellenőrzésre a PlexTools sajét tesztprogramjával, más meghajtót nem ajánlok erre a célra, a CDSpeed program minőségi ellenőrzése meg annyit ér, amennyit fentebb is leírtam: kevés meghajtóval ad vissza értékelhető eredményt.