Home Nieuws Prijzige AI-bloedtestdiensten beloven antwoorden. Leveren ze?

Prijzige AI-bloedtestdiensten beloven antwoorden. Leveren ze?

7
0
Prijzige AI-bloedtestdiensten beloven antwoorden. Leveren ze?

De onzekerheid tussen het laten afnemen van bloed en het ontvangen van de resultaten kan stressvol zijn voor patiënten. Dan komt het met jargon gevulde bloedtestrapport binnen voordat een arts het kan beoordelen en de bevindingen kan vertalen. Ze zullen misschien nooit actie ondernemen als ze geen reden tot ongerustheid zien.

Voer de kunstmatige intelligentie-aangedreven chatbot. Sinds grote grote taalmodellen zoals ChatGPT, ClaudeEn Tweeling een paar jaar geleden debuteerde, hebben steeds meer patiënten hun laboratoriumresultaten gedeeld – of geüpload naar – de chatbot van hun keuze, op zoek naar begeleiding.

Bedrijven, waaronder de wellness- en lifestylemerken Whoop en Levels, zien een kans in deze informatiekloof en hebben een overtuigende pitch gehouden: aandacht op conciërgeniveau voor het laboratoriumwerk van een consument, met dank aan AI.

Hun AI-product is doorgaans een verklarend rapport, geschreven in toegankelijke taal, dat een persoonlijk plan biedt met volgende stappen, zoals veranderingen in het voedingspatroon, aanpassingen aan de levensstijl en overleg met een arts. De service, die doorgaans beschikbaar is via een abonnement, kan een paar honderd dollar of meer per jaar kosten.

Dr. John Whyte, CEO van de American Medical Association, begrijpt de aantrekkingskracht, vooral wanneer patiënten hun resultaten verwarrend vinden.

“Artsen zijn (niet altijd) de beste communicatoren”, zegt Whyte. “Ik wou dat we dat waren, en (dat we) meer tijd hadden.”

Toch zegt hij dat er geen rigoureus onderzoek of bewijs is dat aantoont dat AI bloedresultaten effectief en nauwkeurig kan interpreteren en gepersonaliseerde levensstijlaanbevelingen kan doen om de gezondheid te verbeteren of te optimaliseren. Met andere woorden: de bedrijven die AI-interpretatie van bloedtesten aanbieden, weten nog niet of hun product beter is dan simpelweg gratis een chatbot raadplegen, of nauwkeuriger dan de mening van een arts.

“Ik denk dat je sceptisch moet zijn over sommige beweringen”, zegt Whyte.

__________________________________________________________________________________________________________________________________

Een nieuwe Mashable-serie, AI + Health, zal onderzoeken hoe kunstmatige intelligentie het medische en gezondheidslandschap verandert. We zullen onderzoeken hoe houd uw gezondheidsgegevens veiligchatbots effectief aanzetten tot gezondheidsvragen, en leer hoe twee vrouwen gebruiken AI om een ​​gevaarlijke vorm van hartziekte op te sporenen nog veel meer.

__________________________________________________________________________________________________________________________________

AI voor bloedtestresultaten heeft nog een lange weg te gaan.

De AI-modellen, waaronder Gemini en ChatGPT, die worden gebruikt door bedrijven die bloedinterpretatie doen, zijn volgens hun makers, Google en OpenAI, voor dit doel niet gevalideerd of gebenchmarkt.

Wanneer Google is onlangs een samenwerking aangegaan met Quest Diagnostics Om een ​​AI-tool naar klanten van het landelijke laboratoriumbedrijf te brengen, concentreerde het zich op het uitleggen van medische terminologie, het identificeren van trends in hun persoonlijke gegevens en het voorstellen van vragen om aan hun arts te stellen. Het geeft geen medische begeleiding of levensstijladvies.

Een woordvoerder van het bedrijf zei dat hoewel Google regelmatig onderzoek publiceert over de medische benchmarks van Gemini, het Quest-partnerschap is ontworpen om “problemen op het gebied van alfabetisering en data-navigatie voor patiënten op te lossen.”

HealthBench van OpenAI, dat test hoe goed zijn modellen presteren in realistische gezondheidsscenario’s, bevat voorbeelden van het begrijpen van bloedresultaten, aldus een woordvoerder van het bedrijf. Toch heeft OpenAI geen zelfstandige benchmark voor bloedonderzoek.

Jonathan Kron, mede-oprichter en CEO van het bedrijf BloodGPT, erkent grif dat er geen algemeen aanvaarde benchmarks zijn voor het alomvattend interpreteren van bloedtesten op grote schaal.

Tijdens de eerste tests in 2024 ontdekte BloodGPT dat het rechtstreeks uploaden van volledige laboratoriumrapporten naar algemene chatbots zoals Claude en ChatGPT consequent fouten opleverde. Biomarkers werden geheel gemist of met elkaar verward. Soms hallucineerde de chatbot aanbevelingen.

Deze ervaringen waren voor BloodGPT aanleiding om een ​​zogenaamde ‘gestructureerde pijplijn’ op te bouwen met meerdere controles om de bevindingen te valideren. Terwijl BloodGPT grote taalmodellen kan uitwisselen op basis van hun evoluerende sterke punten, gebruikt het bedrijf momenteel enterprise Gemini-, OpenAI- en Anthropic-modellen voor verschillende taken, waaronder classificatie, redenering, interpretatie en consistentiecontrole. Het overlegt ook met specialisten op het gebied van specifieke biomarkers, zoals de voortplantingshormonen oestrogeen en testosteron, om de nauwkeurigheid en het inzicht van zijn AI te controleren.

Hoewel BloodGPT de verkoop van software aan andere bedrijven, waaronder klinische laboratoria, gezondheidszorgsystemen en gezondheidsdiagnostische bedrijven zoals LabCorp, als voornaamste activiteit beschouwt, biedt het bedrijf AI-interpretatie aan individuele consumenten. Hun consumentenplannen variëren van $ 9,99 tot $ 17,99 per maand.

Het bedrijf zegt dat zijn algoritmen gebaseerd zijn op gevestigde klinische richtlijnen en gevalideerde medische referentiegegevens, en iteratief worden getest door artsen. BloodGPT heeft nog geen peer-reviewed onderzoek gepubliceerd dat het succes van zijn methoden aantoont.

Kron zegt dat het bedrijf een grootschalig onderzoeksproject zal starten met behulp van 100.000 geanonimiseerde patiëntendossiers, via een partnerschap met een Israëlisch gezondheidszorgsysteem. Het doel is om de nauwkeurigheid van BloodGPT op meerdere manieren te vergelijken met de resultaten in de medische dossiers van de patiënt.

“We kiezen hier niet voor de makkelijke weg”, zegt Kron.

Waarom modelnauwkeurigheid belangrijk is

Dr. Girish N. Nadkarni, een internist en nefroloog in het Mount Sinai Hospital in New York, stelt dat bedrijven die een AI-bloedinterpretatiedienst verkopen, hun succes moeten aantonen door deze achteraf te vergelijken met geanonimiseerde patiëntgegevens en door mensen in te schrijven voor een prospectief onderzoek waarin hun AI-bevindingen worden vergeleken met die van een expert.

“Ik denk niet dat iets 100 procent nauwkeurigheid hoeft te hebben om te slagen, omdat mensen niet 100 procent nauwkeurig zijn”, zegt Nadkarni, een AI-gezondheidsonderzoeker en directeur van het Hasso Plattner Institute for Digital Health op de berg Sinaï. “Maar het gesprek wordt erg moeilijk omdat ik niet weet wat de nauwkeurigheid van dit model is… hoe werkt het en waar faalt het?”

Nadkarni zegt dat de huidige AI-bloedonderzoekproducten voor de meerderheid van de patiënten misschien ‘OK’ zijn, maar dat er zich in het uiterste geval problemen kunnen voordoen, zoals gemiste diagnoses of valse positieven die angst veroorzaken en mogelijk schadelijke aanvullende tests.

Levels CEO Josh Clemente is een voorstander van frequent bloedonderzoek. Als de kosten geen probleem zouden zijn, zou Clemente laboratoriumwerk veel vaker aanbevelen dan de typische jaarlijkse fysieke, voor proactieve gezondheidsmonitoring.

Levels, dat zich richt op de metabolische gezondheid, brengt zijn abonnementen op de markt als een manier om ‘gezonder en langer te leven’. Elke laag biedt toegang tot de app van het bedrijf en eigen dashboards, samen met glucosemonitoring. Maar slechts twee niveaus, beschikbaar voor $ 499 en $ 1.499 per jaar, omvatten laboratoriumwerk, door artsen beoordeelde rapporten en AI-gezondheidsinzichten.

Clemente geeft momenteel de voorkeur aan Claude en Gemini voor het Levels AI-product, dat ook is getraind in medische artikelen en biomarkeronderzoek, plus Levels-blogposts en podcasts met stofwisselingsexperts over onderwerpen als voeding, gewichtsverlies en hormonen.

Het AI-product ontleent zijn inzichten aan deze lagen van informatie en vangrails, en een arts beoordeelt elk laboratoriumwerkrapport dat een consument ontvangt. Een app-gebaseerde AI-chatbot maakt ook gebruik van de inhoud van Levels-experts om levensstijlveranderingen aan te bevelen die biomarkers zoals cholesterol en glucose kunnen verbeteren.

“We gebruiken het opnieuw als hulpmiddel voor de ondersteuning van artsen, wat naar mijn mening de juiste manier is om deze hulpmiddelen vandaag de dag te gebruiken”, zegt Clemente. Levels voert momenteel geen onafhankelijk onderzoek uit naar de nauwkeurigheid van zijn AI-product.

Nadkarni steunt menselijk toezicht, maar waarschuwt consumenten ervoor om niet te geloven dat dit een failsafe is. In plaats daarvan kunnen artsen onbewust het slachtoffer worden van automatiseringsvooroordelen, of de neiging om AI-outputs te ondermijnen.

Kan AI bloedtestresultaten echt personaliseren?

Whoop, de wearable die beroemd is geworden door atleten als voetbalster Cristiano Ronaldo en quarterback Patrick Mahomes, is afgelopen herfst net begonnen met het aanbieden van bloedtesten. Eén jaarlijkse test kost $ 199, maar leden kunnen zes keer per jaar testen voor $ 899. Het bedrijf werkt samen met Quest om het laboratoriumwerk uit te voeren en laat, net als Levels, een arts de resultaten beoordelen.

Alexi Coffey, vice-president product bij Whoop, zegt dat het AI-product van het bedrijf wordt aangedreven door OpenAI en gegevens van individuele leden. Ze weigerde commentaar te geven op de vraag of het bedrijf klinisch onderzoek doet naar de nauwkeurigheid van zijn AI.

“We willen relaties tussen dingen nooit teveel claimen of suggereren”, zegt Coffey, “maar we willen onze leden wel waarde bieden door hen te helpen dingen te begrijpen die mogelijk met elkaar verband houden.”

Coffey zegt dat het vermogen van Whoop om fysiologische gegevens – waaronder hartslag, slaapkwaliteit en trainingspatronen – te integreren in bloedonderzoekrapporten klanten unieke gezondheidsinzichten geeft.

Als een klant bijvoorbeeld de dag voordat zijn bloed werd afgenomen een marathon liep, zou de AI rekening kunnen houden met de fysieke stress bij het interpreteren van ontstekingsbiomarkers. (Whoop adviseert zijn leden eigenlijk om zware lichamelijke activiteit voorafgaand aan een bloedafname te vermijden, omdat dit de resultaten kan beïnvloeden.)

Hoe veelbelovend dit ook klinkt, zegt Whyte van de AMA dat er geen bewijs is dat dergelijke AI-toepassingen ‘echt gepersonaliseerd’ zijn.

“Ik denk dat we ons echt moeten afvragen wat de gegevens zijn”, zegt hij, waarbij hij opmerkt dat bedrijven een enorme dataset nodig hebben om individuele aanbevelingen te doen. Als deze bedrijven over die informatie beschikken, hebben ze er nog geen peer-reviewed onderzoek op gebaseerd.

Bloedtesten zijn cruciale diagnostische hulpmiddelen, zegt Whyte, maar ze zijn ook het middelpunt van de sociale media-hype, die ze vaak positioneert als een wondermiddel voor het oplossen van gezondheidsproblemen zoals weinig energie of slapeloosheid. Hij waarschuwt consumenten dat sommige bedrijven elementen en mineralen meten die ‘nergens nuttig voor zijn’. Het testen van het hormoonniveau kan eveneens nutteloos zijn, afhankelijk van hoe het wordt gedaan.

Totdat wetenschappelijk onderzoek de nauwkeurigheid en betekenis van de interpretatie van AI-bloedtesten heeft aangetoond, raadt Whyte patiënten aan AI te gebruiken om hun resultaten duidelijk te verklaren, in plaats van te vertrouwen op de technologie om gepersonaliseerde inzichten voor hen te genereren.

“Mensen denken dat een laboratoriumtest zwart-wit is en dat het de uiteindelijke heerser is over de vraag of je een ziekte hebt of niet”, zegt Whyte. “En dat is niet altijd waar.”

__________________________________________________________________________________________________________________________________

De informatie in dit artikel is uitsluitend bedoeld voor educatieve en informatieve doeleinden en is niet bedoeld als gezondheids- of medisch advies. Raadpleeg altijd een arts of een andere gekwalificeerde zorgverlener als u vragen heeft over een medische aandoening of gezondheidsdoelstellingen.

Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI, omdat het de auteursrechten van Ziff Davis had geschonden bij het trainen en exploiteren van zijn AI-systemen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in