Automatisk fokusevaluering av syntetisk aperture sonar (SAS) bilder

Med minimalt med trening greier mennesker å avgjøre om et bilde er fokusert eller ikke. Men å lage en algoritme som greier å skille fokuserte fra ufokuserte bilder har vist seg vanskelig. I denne oppgaven ønsker vi å trene et nevralt nett til å avgjøre grad av fokus i SAS bilder.

Autofokusalgoritmer finnes implementert i de fleste kameraer. Disse algoritmene benytter muligheten til å justere fokusdybden for et gitt sett av punkter i bildet, og velger rett dybde ved å maksimere eller minimere en estimert størrelse, f.eks lokal kontrast, som funksjon a fokusdybde. Å lage en algoritme som basert på et bilde med ukjent kontras, lysforhold, avbildet objekt etc er i stand til å avgjøre grad av fokus, har imidlertid vist seg vanskelig.

Innen optisk mikroskopi har man forholdsvis nylig foreslått å trene et nevralt nett til å avgjøre grad av fokusering (https://bmcbioinformatics.biomedcentral.com/articles/10.1186/s12859-018-2087-4). I denne oppgaven ønsker vi å teste ut om de samme prinsippene som er benyttet innen optisk mikroskopi kan overføres til SAS bilder.

Oppgaven vil omhandle tilpasning av TensorFlow-kode til problemet. Det vil også være aktuelt å vurdere å reimplementere koden i PyTorch. SAS-bilder vil være tilgjengelig for trening og testing av algoritmen. Vi ønsker både å finne ut hvor godt algoritmen virker, og hvor raskt den eventuelt kan kjøre når den anvendes på bildene.

Bakgrunn:

  • IN4010 - Akustisk avbildning
  • IN5400 - Maskinlæring for bildeanalyse
  • IN5450 - Array signalbehandling
  • God programmeringskunnskap (Python, og gjerne Matlab)

 

Emneord: SAS, dyp læring, avbildning, bildekvalitet, fokusering
Publisert 19. sep. 2019 13:52 - Sist endret 19. sep. 2019 13:52

Veileder(e)

Omfang (studiepoeng)

60