Kan man lære at estimere et objekts orientering uden dataannotering?

Oliver Gyldenberg Hjermitslev
Computer Vision Corner
2 min readNov 25, 2020
Estimeret orientering og position af en boremaskine. Kilde

For at estimere et givent objekts orientering i forhold til et kamera skal man først og fremmest kende, og genkende, objektets form og størrelse. Neurale netværk klarer disse opgaver godt, da de med nok data kan lære abstrakte koncepter. Dog er dataannotering, specielt til at estimere orientering og position, en lang, tidskrævende proces. Derfor har vi udviklet en motor til at generere syntetisk data til netop denne slags opgaver. Resultatet kan ses ovenfor.

Billeder genereret af vores motor
Objektets koordinatsystem set i billederne ovenfor

Ovenfor ses tre eksempler på genereret data. Billederne, og modellen, bliver genereret med tilfældige farver, baggrunde, og støj. Dette fører til et enormt robust neuralt netværk, som kan genkende modellen og dens orientering på trods af rod i billedet og objektets farve og slid. Den tilsvarende 3-dimensionelle repræsentation bliver brugt til at lære det neurale netværk at associere knudepunkter på boremaskinen med specifikke, lærte, områder, den kan genkende. På denne måde kan et 2-dimensionelt billede overføres til 3D.

En beskrivelse af hele systemet (datagenerering, annotering, træning af neuralt netværk, og projicering af 3D-objektet ind i et 2D-billede) kan læses i denne blogpost. Her diskuterer jeg også syntetisk data og potentielle faldgruber. Syntetisk data rummer et stort potentiale for at sænke tærsklen for brugen af deep learning og neurale netværk, specielt for små og mellemstore virksomheder.

Kun fantasien sætter grænser for brugen af denne teknologi. Deltag gerne i diskussionen, eller send forespørgsler direkte til mig på oliver.gyldenberg@alexandra.dk

--

--

Oliver Gyldenberg Hjermitslev
Computer Vision Corner

Visual Computing Specialist at the Alexandra Institute, Denmark. I work with computer vision, computer graphics, and deep learning.