Home Nieuws Hoe u een ‘bescheiden’ AI kunt creëren | MIT-nieuws

Hoe u een ‘bescheiden’ AI kunt creëren | MIT-nieuws

5
0
Hoe u een ‘bescheiden’ AI kunt creëren | MIT-nieuws

Kunstmatige intelligentie is veelbelovend om artsen te helpen patiënten te diagnosticeren en behandelingsopties te personaliseren. Een internationale groep wetenschappers onder leiding van MIT waarschuwt echter dat AI-systemen, zoals ze momenteel zijn ontworpen, het risico met zich meebrengen dat artsen in de verkeerde richting worden gestuurd, omdat ze te zelfverzekerd verkeerde beslissingen kunnen nemen.

Eén manier om deze fouten te voorkomen is door AI-systemen ‘bescheidener’ te programmeren, aldus de onderzoekers. Dergelijke systemen zouden aan het licht brengen wanneer zij geen vertrouwen hebben in hun diagnoses of aanbevelingen en zouden gebruikers aanmoedigen aanvullende informatie te verzamelen wanneer de diagnose onzeker is.

“We gebruiken AI nu als orakel, maar we kunnen AI ook als coach gebruiken. We zouden AI als een echte co-piloot kunnen gebruiken. Dat zou niet alleen ons vermogen om informatie op te halen vergroten, maar ook onze keuzevrijheid vergroten om de punten met elkaar te kunnen verbinden”, zegt Leo Anthony Celi, senior onderzoekswetenschapper bij MIT’s Institute for Medical Engineering and Science, arts bij Beth Israel Deaconess Medical Center en universitair hoofddocent aan de Harvard Medical School.

Celi en zijn collega’s hebben een raamwerk gecreëerd waarvan ze zeggen dat het AI-ontwikkelaars kan begeleiden bij het ontwerpen van systemen die nieuwsgierigheid en nederigheid uitstralen. Deze nieuwe aanpak zou ervoor kunnen zorgen dat artsen en AI-systemen als partners kunnen samenwerken, zeggen de onderzoekers, en kunnen helpen voorkomen dat AI te veel invloed uitoefent op de beslissingen van artsen.

Celi is de hoofdauteur van de studie, die vandaag verschijnt in BMJ Gezondheids- en zorginformatica. De hoofdauteur van het artikel is Sebastián Andrés Cajas Ordoñez, onderzoeker bij MIT Critical Data, een wereldwijd consortium onder leiding van het Laboratory for Computational Physiology binnen het MIT Institute for Medical Engineering and Science.

Het bijbrengen van menselijke waarden

Volgens het MIT-team kunnen overmoedige AI-systemen leiden tot fouten in medische omgevingen. Uit eerder onderzoek is gebleken dat IC-artsen kiezen voor AI-systemen die zij als betrouwbaar beschouwen, zelfs als hun eigen intuïtie in strijd is met de AI-suggestie. Zowel artsen als patiënten zullen eerder onjuiste AI-aanbevelingen accepteren wanneer deze als gezaghebbend worden ervaren.

In plaats van systemen die overmoedig maar potentieel onjuist advies bieden, zouden zorginstellingen toegang moeten hebben tot AI-systemen die meer samenwerken met artsen, zeggen de onderzoekers.

“We proberen mensen op te nemen in deze mens-AI-systemen, zodat we mensen in staat stellen collectief na te denken en zich opnieuw voor te stellen, in plaats van geïsoleerde AI-agenten te hebben die alles doen. We willen dat mensen creatiever worden door het gebruik van AI”, zegt Cajas Ordoñez.

Om een ​​dergelijk systeem te creëren, ontwierp het consortium een ​​raamwerk dat verschillende rekenmodules omvat die in bestaande AI-systemen kunnen worden geïntegreerd. De eerste van deze modules vereist dat een AI-model zijn eigen zekerheid evalueert bij het maken van diagnostische voorspellingen. De Epistemic Virtue Score, ontwikkeld door consortiumleden Janan Arslan en Kurt Benke van de Universiteit van Melbourne, fungeert als een zelfbewustzijnscontrole en zorgt ervoor dat het vertrouwen van het systeem op passende wijze wordt getemperd door de inherente onzekerheid en complexiteit van elk klinisch scenario.

Met dat zelfbewustzijn kan het model zijn reactie op de situatie afstemmen. Als het systeem detecteert dat zijn vertrouwen groter is dan wat het beschikbare bewijsmateriaal ondersteunt, kan het de mismatch pauzeren en markeren, specifieke tests of geschiedenis opvragen die de onzekerheid zouden wegnemen, of specialistisch advies aanbevelen. Het doel is een AI die niet alleen antwoorden geeft, maar ook aangeeft wanneer die antwoorden met voorzichtigheid moeten worden behandeld.

“Het is alsof je een co-piloot hebt die je vertelt dat je een nieuw paar ogen nodig hebt om deze complexe patiënt beter te kunnen begrijpen”, zegt Celi.

Celi en zijn collega’s hebben eerder grootschalige databases ontwikkeld die kunnen worden gebruikt om AI-systemen te trainen, waaronder de Medical Information Mart for Intensive Care (MIMIC) database van het Beth Israel Deaconess Medical Center. Zijn team werkt nu aan de implementatie van het nieuwe raamwerk in AI-systemen op basis van MIMIC en introduceert het bij artsen in het Beth Israel Lahey Health-systeem.

Deze aanpak zou ook geïmplementeerd kunnen worden in AI-systemen die onder meer worden gebruikt om röntgenbeelden te analyseren of om de beste behandelopties voor patiënten op de eerste hulp te bepalen, zeggen de onderzoekers.

Naar een meer inclusieve AI

Deze studie maakt deel uit van een grotere inspanning van Celi en zijn collega’s om AI-systemen te creëren die zijn ontworpen door en voor de mensen die uiteindelijk het meest door deze tools zullen worden beïnvloed. Veel AI-modellen, zoals MIMIC, zijn getraind op openbaar beschikbare gegevens uit de Verenigde Staten, wat kan leiden tot de introductie van vooroordelen ten aanzien van een bepaalde manier van denken over medische kwesties, en tot uitsluiting van andere.

Het inbrengen van meer standpunten is van cruciaal belang om deze potentiële vooroordelen te overwinnen, zegt Celi, en benadrukt dat elk lid van het mondiale consortium een ​​eigen perspectief inbrengt op een breder, collectief begrip.

Een ander probleem met bestaande AI-systemen die voor diagnostiek worden gebruikt, is dat ze meestal worden getraind op elektronische medische dossiers, die oorspronkelijk niet voor dat doel waren bedoeld. Dit betekent dat de gegevens veel van de context missen die nuttig zou zijn bij het stellen van diagnoses en behandelaanbevelingen. Bovendien worden veel patiënten nooit opgenomen in deze datasets vanwege een gebrek aan toegang, zoals mensen die in plattelandsgebieden wonen.

Tijdens dataworkshops georganiseerd door MIT Critical Data werken groepen datawetenschappers, professionals in de gezondheidszorg, sociale wetenschappers, patiënten en anderen samen aan het ontwerpen van nieuwe AI-systemen. Voordat we beginnen, wordt iedereen gevraagd na te denken of de gegevens die ze gebruiken alle drijfveren bevatten van wat ze willen voorspellen, zodat ze niet onbedoeld bestaande structurele ongelijkheden in hun modellen coderen.

“We laten ze de dataset in twijfel trekken. Hebben ze vertrouwen in hun trainingsgegevens en validatiegegevens? Denken ze dat er patiënten zijn die zijn uitgesloten, onbedoeld of opzettelijk, en welke invloed heeft dat op het model zelf?” zegt hij. “Natuurlijk kunnen we de ontwikkeling van AI niet stoppen of zelfs vertragen, niet alleen in de gezondheidszorg, maar in elke sector. Maar we moeten weloverwogener en bedachtzamer zijn in de manier waarop we dit doen.”

Het onderzoek werd gefinancierd door het Boston-Korea Innovative Research Project via het Korea Health Industry Development Institute.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in