English version of this page

Respire - Responsible Explainable Machine Learning for Sleep-related Respiratory Disorders

Dette prosjektet er finansiert via Fellesløft IV fra Norges Forskningsråd (2022-2027). 

For detailed and recent information about the project please refer to the english pages.

Enheter, som smartklokker, som kan samle helsedata fra "alle" hele tiden, og maskinlæring (ML) for å analysere disse dataene vil ha stor innvirkning på fremtidige helseløsninger. De kan muliggjøre lavkost screening i stor skala og langsiktig overvåking av individer for automatisk å oppdage endringer i deres helsestatus, for tidlig oppdagelse av udiagnostiserte sykdommer og for å tilpasse behandling av pasienter. Hvis det brukes uten refleksjon, er det også betydelige utfordringer, som (1) beskyttelse og kontroll av bruk av innsamlede data, (2) falske alarmer, helseangst, overdiagnostisering, påfølgende overbehandling og medikalisering, (3) pålitelighet, relevans og gyldighet av dataanalyseresultater, og (4) manglende evne til å forklare resultater oppnådd med moderne ML. Dette undergraver grunnleggende etiske prinsipper og juridiske rettigheter og kan hemme fruktbar bruk av ML i helsesektoren.
Disse utfordringene og mulighetene vil bli adressert av forskere fra informatikk, medisin, juss og etikk. Medisinsk fokus vil være på søvnrelaterte luftveislidelser, spesielt for spedbarn med luftveishindringer i øvre luftveier og pasienter som får via maske langvarig nattlig mekanisk støtte av ventilasjon.
Kjernen i Respire vil være et rammeverk for å definere hva som er gode forklaringer for ulike brukere (f.eks. helsepersonell, pasienter og ML-utviklere), og hvordan deres kvalitet kan evalueres. Som grunnarbeid vil vi undersøke: (1) bruken av overvåkingsdata fra mekaniske ventilatorer og ML for å forbedre og tilpasse behandlingen av pasienter, (2) forbrukerelektronikk for søvnovervåking av spedbarn hjemme og ML for å analysere overvåkingsdataene, (3) større juridiske og etiske bekymringer, med fokus på etiske prinsipper om autonomi og personvern, EUs databeskyttelseslovgivning og helselovgivning, og (4) forholdet mellom å oppdage og definere enheter som indikatorer, indekser, diagnoser og sykdommer; potensielle utfordringer forårsaket av falske alarmer.

Interdisciplinary approach (computer science, medicine ethics, law) to address with explainable ML challenges

 

 

Publikasjoner

  • Adams, Jonathan (2023). Defending explicability as a principle for the ethics of artificial intelligence in medicine. Medicine, Health care and Philosophy. ISSN 1386-7423. doi: 10.1007/s11019-023-10175-7. Fulltekst i vitenarkiv

Se alle arbeider i Cristin

  • Adams, Jonathan (2024). Epistemic Injustice and AI-Enabled mHealth.
  • Plagemann, Thomas Peter (2023). Respire - planlegging og gjennomføring av internasjonale samarbeidsprosjekter,
  • Plagemann, Thomas Peter (2023). Opportunities and Challenges of using Smart Devices and Machine Learning for Health Applications.
  • Plagemann, Thomas Peter (2023). Responsible Explainable Machine Learning for Sleep-related Respiratory Disorders.
  • Adams, Jonathan (2023). Explanation and transparency: bioethical resources for the future of AI in medicine.
  • Goebel, Vera Hermine & Plagemann, Thomas Peter (2022). Respire - Responsible Explainable Machine Learning for Sleep-related Respiratory Disorders.

Se alle arbeider i Cristin

Emneord: explainable machine learning, sleep-related breathing disorders, legal aspects, ethical aspects
Publisert 6. jan. 2022 12:52 - Sist endret 11. apr. 2024 12:00