Az irányított
osztályozás lépései
A távérzékelt képek kvantitatív feldolgozásának leginkább használatos módszere az irányított osztályozás, amely olyan algoritmusokat használ, amelyek alkalmasak a kép pixeleinek besorolására felszíntípusok, ill. osztályok (idegen szóval clusterek) szerint. Számos eljárás tartozik ebbe a csoportba, a valószínűség-eloszlást felhasználó módszerektől azokig, amelyek a többcsatornás teret megfelelő felületekkel osztályokra jellemző zónákra osztják. A választott módszertől függetlenül, ezek fő lépései a következők:
1. Ki kell választani azokat a felszínosztályokat, amelyeket el akarunk különíteni. Ezek információs osztályok, amelyek lehetnek pl. víz, beépített terület, vetés, talaj, erdő, stb.
2. Minden kiválasztott osztályban jellemző, prototípus-pixeleket kell elkülöníteni (ezeket az eljárás tanulóhelyeknek nevezzük (training sites). Ezek kiválasztása terepbejárás, légifényképek, ill. az űrfelvétel színes kompozit fotóváltozata alapján történhet. Ezek a pixelek gyakran egy jól behatárolható zónában helyezkednek el, melynek a határvonala megadható. Ilyenkor ezt a területet tanulóterületnek nevezzük.
3. Felhasználjuk a tanulóadatokat a kiválasztott osztályozó eljárás paramétereinek megbecslésére; ezek a felhasznált valószínűségi modell paraméterei, ill. olyan egyenletek lesznek, amelyek a többcsatornás tér különböző részeit határozzák meg. Az adott osztály paramétereinek halmazát az osztály jellemzőjének nevezzük (signature).
4. Felhasználva valamely osztályozó eljárást, a kép pixeleit besoroljuk valamelyik ilymódon "megtanított" felszín, ill. információs osztályba. Így a kép kívánt része, vagy egésze osztályozva lesz. Jóllehet a 2. lépésben leírt "betanítás" során a felhasználó a pixelek csak mintegy 1%-át jelöli ki, a számítógép a többit is besorolja az osztályozás során.
5. Az osztályozás eredményeiről táblázatos kivonatot készítünk.
A jelen fejezet feladata, hogy bemutassa azon módszereket, amelyek a fenti 3. és 4. lépést megvalósítják. Feltesszük, hogy minden információs osztály csak egy felszíntípust tartalmaz, úgyhogy ezt a két nevet szinonimaként említjük. Ezt a feltevést megtéve, az alosztályok nem fogják zavarni a tárgyalást.
Maximum likelihood osztályozás (a legnagyobb valószínűség módszere)
Ez
a legismertebb irányított osztályozási módszer a távérzékelt képek
feldolgozásában. Egy matematikai statisztikai szempontból elfogadott módszer
nyomán fejlesztették ki; általános és precíz módon is levezethető.
A következőkben leírt megközelítés elegendő a legtöbb távérzékelési feladat
számára.
|
A Bayes-féle osztályozás
Jelentse egy kép spektrális osztályait
ωi, i=1, ... M
ahol M az osztályok száma. Ahhoz, hogy meghatározzuk, hogy egy pixel az x helyen melyik osztályba ill. kategóriába tartozik, pontosan a következő feltételes valószínűségek érdekesek:
p(ωi|x), i=1, ... M
Az x helyvektor a pixel egyes csatornákon mért fényességértékeiből képzett oszlopvektor. Ezt a pixelt, mint a fényességértékekből képzett koordinátákkal jellemzett többcsatornás tér egy pontját, amelynek kétdimenziós esetét a 3.5. ábra mutatja. p(ωi|x) adja meg annak a valószínűségét, hogy az x helyen lévő pixel részére a helyes osztály az ωi. Az osztályozást a következő feltételnek megfelelően végezzük:
xєωi ha p(ωi|x)>p(ωj|x) minden j i esetén (1)
pl. az x helyen lévő pixel az ωi osztályhoz tartozik, ha p(ωi|x) a legnagyobb. Ez az intuitív döntési szabály egy általános szabály speciális esete. Ebben a döntést a helytelen osztályozáshoz kapcsolódó fontossági szintek szerint módosítjuk. Ennek általános megközelítését Bayes-féle osztályozásnak nevezzük.
A maximum likelihood döntési szabály
A fenti egyenletben szereplő p(ωi|x) feltételes valószínűség egyszerű - de ismeretlen. Tételezzük fel, hogy valamennyi keresett felszínfajtáról megfelelő tanulóadat áll rendelkezésre. Ezt felhasználva valamennyi felszínfajtához megbecsülhetünk egy valószínűség-eloszlást, amely leírja, hogy az x helyen levő pixel milyen valószínűséggel esik az ωi osztályba. Később részletesen megadjuk ezt az eloszlásfüggvényt. Most csak az általános alakjával foglalkozunk, és a p(x|ωi) szimbólummal jelöljük. Annyi ilyen p(x|ωi) függvény van, ahány felszíntípus; más szóval a többcsatornás tér x helyén levő pixelhez ennyi relatív valószínűségi értéket számítunk ki, amelyek rendre megadják annak valószínűségét, hogy a pixel az illető osztályba tartozik.
A (1) képletben szereplő, kívánt p(ωi|x) ill. a kiszámítható p(x|ωi) közötti kapcsolatot a Bayes-tétel írja le (Freund, 1962)
p(ωi|x) = p(x|ωi) p(ωi) / p(x) (2)
ahol p(ωi) annak a valószínűsége, hogy az ωi osztály előfordul a képen. Például, ha egy képen a pixelek 15%-a az ωi spektrális osztályba tartozik, akkor p(ωi)=0.15; p(x) pedig annak a valószínűsége, hogy az x helyen lévő pixel besorolható bármely osztályba. Az érdekesség kedvéért megjegyezzük, hogy maga a p(x) valószínűség nem lényeges a következőkben. A p(ωi)-ket előzetes, vagy a priori valószínűségeknek nevezzük, mivel az osztályozás előtt ezek írják le bármelyik pixel az i. osztályba tartozásának valószínűségét. Ezzel szemben a p(ωi|x)-k az a posteriori valószínűségek. (2) felhasználásával, a (1)-ben leírt döntési szabály a következő formába írható:
xєωi ha p(x|ωi) p(ωi) > p(x|ωj) p(ωj) minden j i esetén (3)
ahol p(x)-et elhagytuk, mint közös osztót. (3) elfogadhatóbb és használhatóbb döntési szabály, mint (1), mert a p(x|ωi)-k ismertek a tanuló-adatokból, és feltételezhető, hogy a p(ωi)-k ismertek, vagy becsülhetők a képből a felhasználó ismeretei segítségével. Matematikailag kényelmesebb eredményt ad, ha a következő függvényeket definiáljuk:
gi(x) = ln { p(x|ωi) p(ωi) } = ln { p(x|ωi) } + ln { p(ωi) } (4)
ahol ln a természetes alapú logaritmus. Így (3) a következő formába írható:
xєωi ha gi(x) > gj(x) minden j i esetén(5)
Ez, egy még következő módosítással a maximum likelihood osztályozás döntési szabálya, a gi(x) függvények neve diszkrimináns függvény.
Többváltozós normál-osztály modellek
A tárgyalás ezen a szintjén fel kell tételezzük, hogy az osztályokra jellemző valószínűségeloszlások a többváltozós normál eloszlással modellezhetők. Ez inkább feltételezés, mint a természetes spektrális és információs osztályok bizonyítható tulajdonsága; de ez egyszerűbb és kezelhetőbb matematikai formákhoz vezet, ezenkívül ez egy olyan eloszlás, melynek többváltozós tulajdonságai is jól ismertek.
Így tehát N számú csatorna esetén (4)-ben feltételezzük, hogy mi és Σi jelenti az ωi osztály középpontjának helyvektorát és kovariancia-mátrixát. A végső kifejtés során a —N/2 ln(2π) minden gi(x) függvényben közös, így a döntési szabályon nem változtat. Így, ennek elhagyásával a maximum likelihood osztályozás diszkrimináns függvénye, normál statisztikát feltételezve, a következő:
Az osztályozást végző felhasználónak gyakran nincs előzetes információja a p(ωi) a priori valószínűségekről, ebben az esetben egyenlő valószínűségeket tételezhetünk fel; ilyenkor a (7) kifejezésből az ln p(ωi) elhagyható, mert az minden i esetén azonos. Az 1/2 közös tényező is elhagyható ebben az esetben, így a diszkrimináns függvény:
A maximum likelihood döntési szabály alkalmazása a (7) vagy (8) kifejezések valamelyikének a (5)-be helyettesítésével történik. További megfontolást igényel, hogy valamennyi kijelölt osztály vagy azonosító megfelelő-e a módszer szempontjából. Ez összefügg a küszöbértékek használatával, amelyet a következő bekezdés tárgyal.
Döntési felületek
Becsüljük meg a maximum likelihood döntési szabály használhatóságát! Ebből a szempontból hasznos, ha meghatározzuk az egyes osztályokat elhatároló felületek alapvető alakját a többcsatornás térben. Bár ezek a felületek implicitek, mégis előállíthatók a következő módszerrel.
A spektrális osztályokat a többcsatornás tér olyan területeiként definiáltuk, ahol az illető osztályhoz tartozó diszkrimináns függvény a legnagyobb. Nyilvánvaló, hogy ezek a területek olyan felületekkel vannak elválasztva, amelyek mentén a két elválasztott osztályhoz tartozó diszkrimináns függvény egyenlő. Így az i-edik és j-edik spektrális osztályt a következő felület választja el:
gi(x)-gj(x) = 0
Ezt döntési felületnek nevezzük. Ha az összes spektrális osztályt elválasztó döntési felületet ismerjük, akkor a kép egy pixelének osztályba sorolását annak a felületek teljes halmazához viszonyított relatív helyzete alapján tehetjük meg a többcsatornás térben.
A (7)-ben és (8)-ban írt (x-mi)tΣi-1(x-mi) az x kvadratikus függvénye. Ennek megfelelően a maximum likelihood osztályozással megkapható döntési felületek is kvadratikusak, így pl. kétdimenziós esetben ezek parabolák, körök, ellipszisek lehetnek.
Küszöbértékek
A továbblépés során magától értetődő, hogy a többcsatornás tér bármely pontján elhelyezkedő pixelt besoroljuk valamely definiált ωi osztályba függetlenül attól, hogy milyen kicsi annak számított valószínűsége, hogy oda tartozik - ha nagyobb az összes többinél.
Gyenge osztályozási
eredmény léphet fel, ha a spektrális osztályok kijelölése során hibát követünk el, ill. ha más osztályok is
léteznek, nem volt elegendő tanuló-adat az eloszlás paramétereinek pontos
becsléséhez (ld. a következő bekezdést). Ilyen esetekben ésszerű küszöbértékeket
alkalmazni a döntési folyamatban. Azok a pixelek, amelyeknek valamennyi osztályba
sorolhatóságának valószínűsége kisebb a választott küszöbértéknél, nem lesznek
osztályozva.
A gyakorlatban a küszöbértékeket a diszkrimináns függvényekhez adjuk meg, nem a valószínűségeloszlásokhoz, hisz az utóbbit ténylegesen nem tudjuk számítani. A küszöbértéket is figyelembe véve a (5) döntési szabály a következő formába írható:
xєωi ha gi(x) > gj(x) minden j i esetén (9a)
és
gi(x) > Ti (9b)
ahol Ti az ωi osztályhoz megfelelőnek látszó küszöbérték. Meg kell fontolni, hogyan becsülhető Ti. (7) és (9b) alapján az osztályozás elfogadható, ha
(10) bal oldala N szabadsági fokú χ2 eloszlást mutat, ha x (ahogy feltételeztük) normál eloszlású (Swain and Davis, 1978). N a többcsatornás tér dimenziószáma. A χ2-táblázatból kiolvashatjuk, hogy mely (x-mi)tΣi-1(x-mi)-küszöbérték tartalmazza az összes pixel általunk kívánt százalékát. Az ennél nagyobb χ2-értékű pixeleket elhagyjuk a továbbiakban, mint a vizsgált valószínűség-tartomántból kiesőket.
Például tegyük fel, hogy LANDSAT MSS adatok osztályozásához választunk küszöbértéket úgy, hogy az összes pixel 95%-át kívánjuk osztályozni, tehát a legkisebb valószínűséggel (bármely osztályba) besorolható 5%-ot klasszifikálatlanul hagyjuk. A χ2-táblázat azt mutatja, hogy a pixelek 95%-ához kisebb, mint 9.488 χ2-érték tartozik.
Az egyes osztályokhoz szükséges tanuló-pixelek száma
Az
egyes osztályok kovariancia-mátrixa és középérték-vektora elemeinek becsléséhez
elegendő számú tanuló-mintára van szükségünk. N-dimenziós többcsatornás
térben minimálisan N+1 mintára van szükségünk, hogy elkerüljük a
kovariancia-mátrix szingularitását, ami ahhoz vezetne, hogy a diszkrimináns
függvény kifejezésében nem tudnánk kiszámítani a mátrix inverzét. Eltekintve
ettől a feltételtől, nyilvánvalóan fontos, hogy annyi tanuló pixelünk legyen,
amennyi csak lehetséges, különösen, ha a pixel-vektorok terének dimenziószáma
magas (sok csatornát vizsgálunk), mert ilyen esetben nagy az esélye annak, hogy
egyes választott dimenziók (csatornák) dinamikája kicsi. Swain és
Davis (1978)
azt ajánlják, hogy spektrális osztályonként a tanuló-minták minimuma a
gyakorlatban 10N legyen, de a 100N a kívánatos, amennyiben ez
megvalósítható.
Egy egyszerű példa
A maximum likelihood osztályozást példaként egy LANDSAT MSS képkivágaton mutathatnánk be. Ez egy 256 x 276 pixel méretű kivágat, melyen négy felszínosztály világosan megkülönböztethető, ezek a víz, a vegetáció, a leégett, ill. a beépített terület. Készítsünk tematikus térképet erről a négy felszíntípusról, és határozzuk meg a leégett terület pontos kiterjedését.
Az első lépés a tanuló-adatok kiválasztása. Egy ilyen durva osztályozásnál mind a négy osztály számára egyszerű, vizuális módon is tudunk tanuló-pixeleket választani a képről. Időnként az osztálystatisztikák jobb becsléséhez szükséges lehet, hogy egy osztályhoz több tanuló-területet is válasszunk a kép különböző helyein.
A tanuló-adatokból kiszámítjuk mind a négy osztály négycsatornás osztályjellemzőit. A középértékek láthatóan megfelelnek az egyes felszíntípusok ismert reflektancia-karakterisztikáinak. Szintén észrevehetjük, hogy az osztályon belüli változások (a kovariancia-mátrixok diagonális elemei) a víz esetében, várakozásainknak megfelelően kicsik, de igen nagyok a beépített terület adataiban, jól mutatva ennek a típusnak a heterogén jellegét.
Ezeket a jellemzőket egy maximum likelihood klasszifikáló algoritmusban felhasználva osztályozzuk a bemutatott kép négy csatornáját. A négy felszínosztály területi elterjedését az osztályozott kép mutatja. Megjegyezzük, hogy mivel küszöbértékeket nem alkalmaztunk a klasszifikálás során, nincsenek osztályozatlan pixelek. A területi becslések a pixelszám és a pixelek effektív méretének szorzataként kaphatók meg. A LANDSAT-2 műhold MSS-rendszere esetében a pixelméret 0.4424 hektár.
Legkisebb távolság szerinti osztályozás
Korlátozott tanuló-adatok
A maximum likelihood osztályozás hatékonysága az egyes osztályokhoz tartozó m középérték-vektorok és Σ kovariancia-mátrixok elfogadhatóan pontos becslésétől függ. Ez megfelelő számú tanuló-pixel kijelölését feltételezi minden osztály számára. Abban az esetben, ha ez nem áll rendelkezésünkre, elsősorban a kovariancia-mátrix elemeinek becslése pontatlan lesz, ami gyenge minőségű osztályozáshoz vezet. Ha tehát az egyes osztályokról rendelkezésre álló tanuló-pixelek száma korlátozott, célszerűbb olyan osztályozó eljárást választani, amely nem használja a kovariancia-információkat, hanem csak az egyes osztályok középértékeit. Ezek ugyanis kevesebb adatból megbízhatóbban becsülhetők, mint a kovarianciák. Az ún. legkisebb távolság szerinti osztályozás, vagy pontosabban az egyes osztályok középértékeitől mért legkisebb távolság szerinti osztályozás egy ilyen megközelítés. Ennél az eljárásnál a tanuló-adatok csak az osztályok átlágértékeinek számításához szükségesek; az osztályozás során minden pixel abba az osztályba kerül, amelynek átlagához a legközelebb van.
A legkisebb távolság szerinti osztályozás szintén igen előnyös, mivel gyorsabb módszer, mint a maximum likelihood klasszifikáció, ahogy ezt a korábbi bekezdésben bemutatjuk, viszont, minthogy nem használja a kovariancia-adatokat, kevésbé rugalmas. A maximum likelihood osztályozás során minden osztályt többváltozós normál eloszlással modelleztünk, ami az adatok kiterjedését írta le az egyes spektrális irányokba. Mivel most, a legkisebb távolság szerinti osztályozásnál a kovariancia-adatokat nem használjuk, az osztály-modellek szimmentrikusak a spektrális tartományban. Ilymódon a szabálytalan, aszimmetrikusan elnyújtott osztályokat ez a módszer nem modellezi. Emiatt sok spektrális osztály definiálására lehet szükségünk az algoritmus használatakor olyan esetben is, amikor a maximum likelihood osztályozás számára egy is elegendő.
A diszkrimináns függvény
A legkisebb távolság szerinti osztályozás diszkrimináns függvénye a következők szerint állítható fel;
Jelentsék az mi, i=1,...M vektorok az M darab osztály tanuló-adatokból meghatározott átlagvektorait, és x az osztályozandó pixel helyét. Számítsuk ki a következő vektor-formulával a négyzetes euklideszi távolságok halmazát:
d(x,mi)2 = (x-mi)t(x-mi) = (x-mi)·(x-mi) i=1,...M
Kifejtve a szorzatot
d(x,mi)2 = x·x - 2mi·x + mi·mi
Az osztályozás alapja:
xεωi ha d(x,mi)2 < d(x,mj)2 minden j i esetén
Megjegyzendő, hogy x·x valamennyi d(x,mi) kifejezésben közös, tehát elhagyható. Így az osztályozás a következő egyenlet alapján végezhető el:
xεωi ha gi(x) > gj(x) minden j i esetén (11a)
ahol
gi(x) = 2·mi·x - mi·mi (11b)
A (11) egyenlet adja meg a legkisebb távolságok szerinti osztályozás diszkrimináns függvényét. A maximum likelihood osztályozással ellentétben, itt a többcsatornás térben az egyes osztályokat elválasztó döntési felületek lineárisak, mint erre még később visszatérünk. Ezáltal a többcsatornás tér felosztása kevésbé hatásos, viszont, mint már korábban említettük, korlátozott mennyiségű tanuló-adat esetén nagyobb pontosságot eredményez, mint a maximum likelihood osztályozás.
A legkisebb távolság szerinti osztályozás más, nem-euklideszi metrikák felhasználásával is elvégezhető (Wacker and Landgrebe, 1972); ennek dacára a legtöbb távérzékelési-képfeldolgozási programcsomag euklideszi metrikájú osztályozó eljárást tartalmaz, pl. az Orses (Borden et al., 1977) és a Larsys (Phillips, 1973).
A legkisebb távolság szerinti osztályozás, mint a maximum likelihood osztályozás elfajult esete
A lényegi különbség e két osztályozó eljárás között az, hogy az utóbbi felhasználja a minták kovariancia-információit is. Míg a legkisebb távolság szerinti osztályozás egy pixel besorolásánál csak annak az egyes osztályközepektől való távolságát veszi figyelembe, az attól való irányt nem, addig a maximum likelihood osztályozás során a döntést a kovariancia-mátrix információin alapulva, az osztályközéptől való irány is befolyásolja. Ezenkívül a diszkrimináns függvény -½ln m Σi m tagja közvetlenül mutatja, hogy az adott pixelnek egyes osztályközepekhez közelebb kell lenniük, mint a többihez ahhoz, hogy az adott osztályokba tartozásuk valószínűsége megegyezzen. Végeredményben feltételezhetjük, hogy a maximum likelihood osztályozás általánosan jobb eredményeket szolgáltat. A következő esetben viszont a maximum likelihood osztályozás nem előnyösebb. A gyakorlatban ilyen akkor fordul elő, ha az osztály-kovarianciákban nem az egyes osztályok természetes spektrális kiterjedése, hanem szisztematikus zaj dominál.
Rögzítsük diagonálisnak minden osztály kovariancia-mátrixát, úgy, hogy minden komponens varianciája egyenlő és egységnyi:
Σi = σ2I minden i esetén
E feltételezéssel élve, a maximum likelihood osztályozás diszkrimináns függvénye, (7) alapján:
Az ln σ2N és az x·x tagok, mint közös faktorok, elhagyhatók, így
Ha - egyenlő a priori valószínűségeket feltételezve - ln p(ωi)-t elhagyjuk, úgy az 1/2σ2 szintén elhagyható (a függvények összehasonlítása során azonos szorzó), így
gi(x)=2mi·x-mi·mi
ami a legkisebb távolság szerinti osztályozás diszkrimináns függvénye. Ilymódon a két módszer elvileg is azonos eredményt ad identikus és szimmetrikus spektrális osztályok esetén.
Döntési felületek
A többcsatornás tér osztályokat elválasztó, implicit döntési felületeit, mint már láttuk, azon pontok halmaza jelenti, ahol a megfelelő osztályokhoz tartozó diszkrimináns függvények értékei egyenlők. Így a i-edik és j-edik spektrális osztályt elválasztó felület a következőképpen adható meg:
gi(x)-gj(x) = 0
(11b)-ből behelyettesítve pedig
2(mi-mj)·x - (mi·mi - mj·mj) = 0
Ez
lineáris felületet definiál - ahogyan a háromnál több dimenziós hipersíkokat
gyakran nevezik. Szembeállítva a maximum likelihood osztályozással, ahol a
döntési felületek
kvadratikusak, emiatt rugalmasabb elkülönítést tesznek lehetővé, a legkisebb
távolság szerinti osztályozás döntési felületei lineárisak és jelentősen
egyszerűsítettek.
Küszöbértékek
A küszöbértékek alkalmazása ebben az esetben azt jelenti, hogy a pixel besorolása a legközelebbi átlagú osztáyba csak akkor történik meg, ha az illető osztályközéptől való távolsága a küszöbértéknél kisebb. Ezt a módszert széles körben alkalmazzák. Ezt a távolsági küszöböt gyakran az osztályközéptől való szórás értékével adják meg.
Parallelepipedon osztályozás
A parallelepipedon osztályozás egy nagyon egyszerű irányított osztályozási módszer, amely az egyes spektrális komponenseknek a tanuló-adatokból számított hisztogramjának vizsgálatán alapul. Tegyük fel, hogy egy különálló, kétdimenziós adatokból álló spektrális osztály a hisztogramon jól definiált helyre kerül. Ekkor a nyilvánvaló alsó és felső határok a hisztogramon kijelölhetők, és a későbbiekben az ezek által kijelölt fényességtartomány használható az osztály komponenseinek karakterisztikus helyeként. Együtt, az összes csatornát figyelembe véve ezek egy többdimenziós "dobozt", parallelepipedont adnak. Ha az osztályozás során valamely pixel helye egy ilyen parallelepipedon belsejébe esik, az illető pixelt az annak megfelelő osztályba soroljuk.
Bár a parallelepipedon osztályozási módszer lényegében a tanítási és a felhasználási szakaszt tekintve is igen egyszerű, számos hátránya is van. Egy ilyen, hogy széles kijelöletlen tartományok lehetnek a parallelepipedonok közt; az ideeső pixelek osztályozatlanul maradnak. Ezzel szemben a maximum likelihood, ill. a legkisebb távolság szerint osztályozás során minden pixelt besorolunk, feltéve, hogy nem alkalmaztunk küszöbértékeket. Egy másik korlátot az jelent, hogy az egyes osztályok eredeti, a priori valószínűsége, hasonlóan a legkisebb távolság módszeréhez, nem vehető figyelembe. Végül, de nem utolsósorban, az egyes osztályokhoz tartozó parallelepipedonok átlapolódhatnak, mivel oldalaik párhuzamosak a spektrális tengelyekkel. Így tehát van olyan adat, amely nem osztályozható ezen a módon.
Az osztályozási módszerek időigénye
A távérzékelési képfeldolgozásban legszélesebb körben használt e három osztályozó módszer közül a parallelepipedon módszer a leggyorsabb, mert csak a pixelek egyes spektrális komponenseit kell a megfelelő parallelepipedonok határaival összehasonlítani.
A legkisebb távolság szerinti osztályozás során a (11b) szerinti diszkrimináns függvényeket minden piexlre külön ki kell számítani. A gyakorlatban 2mi és mi·mi egy pixelhez előre kiszámítható, így az egyes osztályok diszkrimináns függvényeinek számításánál N darab szorzás és N darab összeadás elhagyható, ha N az x komponenseinek (a figyelembe vett csatornáknak a) száma.
Összehasonlításként, a maximum likelihood osztályozás (7) szerinti diszkrimináns függvényének számításakor N2+N szorzás és N2+2N+1 összeadás szükséges egy pixelnek egy adott osztályba tartozásának ellenőrzéséhez, feltéve, hogy a kifejezést előzetesen kiszámítottuk. A szorzások számának összehasonlításával (elhanyagolva az összeadások számát) azt kapjuk, hogy egy osztályozás elkészítését a maximum likelihood módszerrel (N+1)-szer annyi idő alatt végezhetjük el, mint a legkisebb távolságok módszerével. Fontos megjegyezni, hogy az osztályozás ideje, és így a költsége is, az N csatornászámmal négyzetesen nő a maximum likelihood osztályozás esetén, míg a legkisebb távolságok módszerét használva csak lineárisan. Ennek részleges jelentősége van a képjellemzők redukciójánál és a többidejű távérzékelt képek osztályozásakor.
Mahalanobis-osztályozás
Tekintsük a maximum likelihood osztályozás diszkrimináns függvényét egyenlő előzetes valószínűségek mellett (8). Ha megfordítjuk a függvény előjelét, láthatjuk, hogy ez egy távolság négyzeteként írható fel, minthogy ez a kvadratikus tag dimenziója, míg a másik tag konstans. Definiáljuk tehát a következő metrikát:
d(x,mi)2=ln∣Σi∣+(x-mi)tΣi-1(x-mi) (12)
és az osztályozást végezzük el a legkisebb d(x,mi) szerint, mint az euklideszi legkisebb távolság szerinti osztályozás esetén. Így a maximum likelihood osztályozást tekinthetjük legkisebb távolság-típusú módszernek is, de most a metrika irányfüggő, és az egyes osztályoknak megfelelően változik.
Legyen minden osztály kovarianciája egyenlő, tehát Σi=Σ minden i esetén! Belátható, hogy az ln∣Σi∣ tag most elhagyható, mert minden függvényben azonos. A metrika tehát a következő formára egyszerűsödik:
d(x,mi)2=(x-mi)tΣ-1(x-mi) (13)
Ezt a módszert Mahalanobis távolság szerinti osztályozásnak nevezzük, bár néha a (12) szerinti általánosabb metrikát alkalmazzuk. A Mahalanobis-távolság (13) négyzetgyökeként értelmezhető. Ha feltesszük továbbá, hogy Σ=σ2I, a Mahalanobis-osztályozás az előző. bekezdésben már látott módon ekvivalens a legkisebb távolságok szerinti osztályozással.
A Mahalanobis-osztályozás előnye a maximum likelihood osztályozással szemben az, hogy miközben gyorsabb, megtartja annak irány-érzékenységét is a (most csak egy) Σ kovariancia-mátrix útján, amely adódhat az egyes osztályok átlagából vagy közös változóként.
Táblázat szerinti osztályozás
Mivel az egyes pixelek spektrális sávok szerinti fényessége egy korlátos intervallumba esik, minden képen megadható az összes előforduló pixel-helyvektor a többcsatornás térben; ez egy nagy, de véges halmaz. Ezen a képen belül egy adott osztályra nézve az egyes vektorok száma nem feltétlenül nagy. Ilymódon egy használható osztályozási módszer, ha a tanuló-adatok alapján feljegyezzük az ott az osztályba tartozónak minősített pixel-helyvektorok halmazát (táblázatot készítünk), majd ezt úgy használjuk fel a teljes kép osztályozására, hogy egy besorolandó pixel helyvektorát összehasonlítjuk a feljegyzettekkel, és ha azonosat találunk, az annak megfelelő osztályba soroljuk a pixelt. Ez semmilyen aritmetikai műveletet nem igényel, és az összehasonlítások esetleges nagy száma ellenére is gyors osztályozási módszer. Ezt táblázat szerinti (kikereséses) osztályozásnak nevezzük, mivel az egyes osztályokhoz tárolt pixel-fényesség értékek software vagy hardware táblázatba foglaltak.
A módszer egy nyilvánvaló hátránya, hogy a tanuló-adatoknak osztályonként tartalmazniuk kell az összes lehetséges pixel-fényesség vektort. Amit mégsem tartalmaznak, de a képen ilyen pixel előfordul, osztályozatlanul marad, ellentétben az eddig leírt osztályozási módszerekkel.
Összefüggési osztályozás
A fejezetben eddig említett összes algoritmus pixel-specifikus osztályozás volt, amely a kép pixeleit a szomszédok pixelek besorolásától fügetlenül osztályozza. Léteznek azonban olyan eljárások is, amelyek a pixeleket szomszédaikkal összefüggésben osztályozzák. Ezek a terület rögzített tér-modelljének előzetes információit igénylik, és spektrálisan és térben is konzisztens tematikus térképeket állítanak elő (Kettig and Landgrebe, 1976; Swain, Varderman and Tilton, 1981; Richards, Landgrebe and Swain, 1981).
Vegyes képi adatok osztályozása
Gyakran szükséges az osztályozás elvégzése többfajta képből álló adatbázison. Az adatbázis tartalmazhat műholdas spektrális, domborzati, topográfiai és egyéb (raszteres) adatokat, az ábrán látható módon geometriailag illesztett formában, például egy földrajzi információs rendszerben (GIS).
Ilyen típusú adatok osztályozásának módja az, hogy olyan kiterjesztett pixel-vektorokat generálunk, amelyek mind az adott pixel spektrális, mind egyéb adatait tartalmazzák. Nehézséget jelent ekkor a különféle adattípusok eltérő, inkompatibilis statisztikája, emiatt az igen nagy tanuló-adat igény, illetve, maximum likelihood osztályozás használata esetén az osztályozás költségének négyzetes növekedése a dimenziószámmal. További lehetőség az előzetes, a priori valószínűségek meghatározása a nem-spektrális adatokból, és ezek felhasználása a (7) egyenletnek megfelelően (Stahler, 1980), illetve olyan eljárások, amelyek az adatrendszer térbeli összefüggéseit kutatják a nem-spektrális adatokból, és ezt használját a spektrális adatok osztályozásának fejlesztésére (Richards, Landgrebe and Swain, 1982).