Disputas: Vinnie Byeongkwan Ko

M.Sc. Vinnie Byeongkwan Ko ved Matematisk institutt vil forsvare sin avhandling for graden ph.d.

Model selection for copulas and model pruning for neural networks 

 

Bildet av kandidaten.

Vinnie Byeongkwan Ko

Tid og sted for prøveforelesning

11. oktober 2019 kl. 10.15, "Abels utsikt", 12. etasje, Niels Henrik Abels hus.

Bedømmelseskomité

  • Professor Axel Gandy, Imperial College London

  • Professor Niels Richard Hansen, University of Copenhagen

  • Professor Sven Ove Samuelsen, Universitetet i Oslo

Leder av disputas

Professor Hans Brodersen, Matematisk institutt, Universitet i Oslo

Veiledere

Sammendrag

Takket være den teknologiske utviklingen de siste tiårene har dagens samfunn enorme mengder data tilgjengelig på mange forskjellige felt og bransjer. Antall mulige statistiske og maskinlæringsmodeller for å trekke ut viktig informasjon fra disse dataene er høyere enn noensinne. I den store jungelen av modeller er det en utfordrende oppgave å evaluere hver kandidatmodell riktig og å finne den mest passende for de gitte dataene og hensiktene. Avhandlingen undersøker to emner relatert til valg av den mest riktige modellen.

Den første delen av avhandlingen omhandler utvikling av nye kriterier for å velge den mest passende copula-modellen. En copula er en flerdimensjonal modell i statistikk som kan brukes til å modellere felles oppførsel av variabler. Den anvendes jevnlig innen finans og forsikringsmatematikk. Når antall variabler er høyt, blir det utfordrende å estimere parameterne til copulaen. Et ofte brukt alternativ er at man estimerer kun noen av parameterne av gangen, og gjentar dette på en trinnvis måte. I avhandlingen er det utviklet modellvalgkriterier for copula-modeller når parameterne er estimert på denne trinnvise måten. 

Den siste delen av avhandlingen omhandler utvikling av en beskjæringsmetode for nevrale nettverk, som er en populær maskinlæringsmodell. Et typisk moderne nevralt nettverk har flere millioner parametere. Nyere arbeid viser at det er en betydelig overparametrisering av mange nevrale nettverk. En av de mest vellykkede beskjæringsmetodene i praksis er å fjerne parametere som er små av verdi i omfang. Inspirert av Wald-testen fra statistikkfaget har jeg utviklet et såkalt Størrelses- og usikkerhetskriterium, en ny beskjæringsmetode som tar hensyn til både verdi og usikkerhet, for hvert av parameterestimatene.

For mer informasjon

Kontakt Matematisk institutt

Publisert 24. sep. 2019 17:13 - Sist endret 27. sep. 2019 08:13