Dette blogginnlegget utforsker prinsippene bak hvordan 360-graderskameraer genererer bilder rundt et kjøretøy og korrigerer forvrengning for å forbedre førersikkerheten.
Det finnes diverse enheter som kan hjelpe sjåfører med parkering eller navigering på smale veier. Blant disse er det spesielt verdt å merke seg systemet som bruker opptak fra kameraer montert rundt kjøretøyet for å lage et fugleperspektiv av 360°-omgivelsene. Dette bildet vises deretter på en skjerm i bilen for sjåføren. Denne enheten hjelper sjåfører med å navigere og parkere trygt ved å gi en umiddelbar oversikt over omgivelsene. La oss nå undersøke prosessen med hvordan dette bildet presenteres for sjåføren.
Først legges et rutenettmønster ut på bakken rundt kjøretøyet, som deretter fanges opp av kameraene. Kameraene som brukes i dette systemet har vanligvis vidvinkelobjektiver, noe som gir et stort synsfelt. Dette reduserer blindsoner og hjelper føreren med å opprettholde bedre sikt. Vidvinkelobjektiver forvrenger imidlertid bilder på grunn av krumningen av lyset som passerer gjennom objektivet. Midten av bildet virker konveks, og forvrengningen øker når du beveger deg bort fra sentrum. Dette kalles linseforvrengning. Egenskapene til selve kameraet som påvirker denne forvrengningen kalles interne variabler og er representert av forvrengningskoeffisienter. Nøyaktig kunnskap om de interne variablene gjør det mulig å sette en forvrengningsmodell for å korrigere forvrengningen.
Prosessen med å korrigere forvrengning krever svært sofistikert arbeid. Bare ved å minimere forvrengning i bildene som tas av kameraet, kan bildene som sjåføren ser samsvare så nøyaktig som mulig med den faktiske situasjonen. Forvrengningskorrigeringsalgoritmer brukes til dette formålet, og i denne prosessen spiller objektivets egenskaper, sammen med posisjonen og vinkelen til kameraet som er montert på kjøretøyet, en avgjørende rolle. Forvrengning forårsaket av faktorer som helningen på det kjøretøymonterte kameraet kalles en ekstern variabel. Ved å sammenligne det tatt bildet med en virkelig rutenettplate, kan man bestemme kameraets helningsvinkel basert på rotasjonsvinkelen til rutenettplaten i bildet eller endringer i dens posisjon. Denne informasjonen brukes til å endre de eksterne variablene og korrigere forvrengningen.
Når forvrengningskorrigeringen er fullført, krever neste trinn perspektivtransformasjon. Dette innebærer å estimere de tilsvarende 3D-punktene i den virkelige verden for punktene i bildet, og dermed få et bilde uten perspektiveffekter. Generelt sett, når et kamera projiserer den virkelige 3D-verdenen på et 2D-bilde, virker objekter av samme størrelse mindre jo lenger unna kameraet de er. Men siden et bilde sett fra et ovenfra-og-ned-perspektiv ikke skal vise størrelsesendringer i objekter basert på avstand, er det avgjørende å fjerne denne perspektiveffekten.
Hvis vi kjenner posisjonene til flere punkter i bildet, oppnådd gjennom synspunkttransformasjon, og deres tilsvarende punkter på det virkelige rutenettet, kan vi beskrive korrespondansen mellom alle punkter i bildet og rutenettpunktene ved hjelp av et virtuelt koordinatsystem. Ved å bruke denne korrespondansen, plasserer vi bildepunktene på et plan samtidig som rutenettets form og de relative størrelsene mellom rutenettene er identiske med den virkelige verden, og det resulterer i et todimensjonalt bilde. Dette resulterende bildet er nettopp fugleperspektivbildet. Ved å syntetisere bilder fra hver retning på denne måten, kan føreren se et 360°-bilde på skjermen, som om vedkommende ser ned ovenfra rundt kjøretøyet.
Teknologien som brukes i denne prosessen er svært kompleks og presis, men resultatet gir betydelig hjelp til sjåføren. Spesielt på trange parkeringsplasser eller komplekse veiforhold spiller slike enheter en avgjørende rolle i å sikre sjåførens sikkerhet. Utviklingen av denne teknologien forbedrer sikkerheten og bekvemmeligheten ved kjøretøyets drift betraktelig og vil tjene som en viktig grunnleggende teknologi for utviklingen av fremtidige autonome kjøretøy.