Preskočiť na obsah

Umelá inteligencia je v práci s dátami pacientov diskrétna

Fotografie sú ilustračné, všetky zobrazené osoby sú modelom. Zdroj: iStock.

Vedci v posledných rokoch urobili obrovský pokrok v schopnosti vyvíjať algoritmy umelej inteligencie, ktoré dokážu analyzovať údaje pacientov a ponúkať nové spôsoby diagnostiky a najlepšie varianty liečby. Úspech týchto algoritmov však plne závisí od prístupu ku zdravotným údajom, čo vyvoláva obavy o súkromie pacientov. Podľa štúdie Massachusettského technologického inštitútu (MIT) je však toto riziko v porovnaní s prínosom pre pacienta zanedbateľné.

Algoritmy umelej inteligencie, ktorých účelom je analýza zdravotných údajov pacienta s cieľom stanovenia diagnózy či najvhodnejšej personalizovanej liečby, pracujú s dátami, ktoré boli zbavené všetkých údajov, pomocou ktorých by bolo možné spätne pacienta identifikovať. Akákoľvek teoretická možnosť spojenia týchto dát s konkrétnym pacientom však stále vzbudzuje obavy.

Tím výskumných pracovníkov z MIT pod vedením hlavného vedeckého pracovníka inštitútu Lea Anthonyhy Celiho sa preto vo svojej štúdii pokúsil toto potenciálne riziko spätnej identifikácie bližšie preskúmať. „Súhlasíme s tým, že existuje určité riziko pre súkromie pacientov, ale existuje tiež riziko nezdieľania dát. Keď sa údaje nezdieľajú, dochádza k ujme, čo treba brať do úvahy,“ uviedol šéf výskumu MIT, podľa ktorého doterajšie zistenia naznačujú, že potenciálne riziko pre súkromie pacientov je výrazne vyvážené prínosom pre pacientov, ktorí majú nespochybniteľný prospech z lepšej diagnostiky a liečby. Leo Anthony Celi zároveň dúfa, že tieto súbory dát budú v blízkej budúcnosti dostupnejšie a budú zahŕňať aj rozmanitejšiu skupinu pacientov.

AI v analýze rizík obstáli, problém je inde

Nemocnice a ďalšie inštitúcie budujú v snahe objaviť nové spôsoby diagnostiky a liečby rozsiahle databázy záznamov obsahujúcich množstvo informácií o kardiovaskulárnych či onkologických ochoreniach, makulárnej degenerácii, ochorení covid‑19 a mnohých ďalších. Leo Anthony Celi spolu s ďalšími výskumnými pracovníkmi z Laboratória pre počítačovú fyziológiu MIT vytvorili niekoľko verejne dostupných databáz, vrátane databázy MIMIC (Medical Information Mart for Intensive Care), ktorú využili na vývoj algoritmov, ktoré by mali lekárom pomôcť urobiť lepšie lekárske rozhodnutia. Dáta z MIMIC potom podľa MIT využil aj celý rad ďalších výskumných skupín. Podobné databázy ale vraj vznikajú po celom svete.

Dáta vkladané do týchto typov databáz sa podľa MIT zvyčajne najprv očistia od určitých typov identifikačných údajov – mien, adries či telefónnych čísel pacientov. To preto, aby pacienti nemohli byť spätne identifikovaní a nebolo tak ohrozené ich súkromie. Pretože pretrvávajúce obavy o ochranu súkromia spomaľujú vývoj týchto verejných databáz, rozhodol sa Celi so svojím tímom zistiť, aké veľké riziko pre pacientov verejné databázy skutočne predstavujú. Výskumní pracovníci najprv preskúmali databázy vedeckých článkov PubMed s cieľom nájsť akékoľvek zmienky o opätovnej identifikácii pacientov z týchto verejných databáz. Žiadne nenašli.

Svoj rešerš teda rozšírili a pomocou globálnej databázy správ Media Cloud a analytického nástroja s otvoreným zdrojom preskúmali zmienky v médiách za obdobie od septembra 2016 do septembra 2021. Takto preverili viac ako desať tisíc amerických mediálnych publikácií, ani tak nenašli jediný prípad opätovnej identifikácie pacienta.

Pri svojom pátraní však zistili, že v rovnakom období boli odcudzené cez úniky dát zdravotné záznamy bezmála 100 miliónov ľudí. Pritom tieto údaje mali byť bezpečne uložené. Skutočné riziko pre súkromie pacientov teda nepredstavujú algoritmy umelej inteligencie pracujúce s dátami zbavenými vyššie spomínaných identifikátorov, ale kybernetická bezpečnosť. „Samozrejme je dobré mať obavy o súkromie pacientov a riziko opätovnej identifikácie, ale toto riziko, aj keď nie je nulové, je v porovnaní s problémom kybernetickej bezpečnosti zanedbateľné,“ zdôraznil pre MIT News Leo Anthony Celi.

Lepšie zastúpenie menšín

Dáta sú všetko, bez nich nie je naplňovanie potenciálu umelej inteligencie možné a lekári sú slepí. Do budúcna je preto podľa výskumných pracovníkov z MIT nevyhnutné rozšíriť zdieľanie „deidentifikovaných“ zdravotných údajov tak, aby boli viac zahrnuté aj menšinové skupiny, ktoré sú podľa Celiho v Spojených štátoch amerických tradične nedostatočne zastúpené. „S umelou inteligenciou nemôžeme pokročiť, pokiaľ sa nevyrovnáme s predsudkami, ktoré sa skrývajú v našich súboroch dát. Keď vedieme debatu o ochrane súkromia, nikto nepočuje hlas ľudí, ktorí nie sú zastúpení,“ upozorňuje Celi. Vyžadovanie súhlasu pacientov so zdieľaním dát podľa výskumných pracovníkov MIT problém bezpečnosti nerieši. Celi preto so svojím tímom odporúča skôr posilňovať existujúce ochranné opatrenia. Jedna z nových stratégií, ktorú Celi popísal pre MIT News, spočíva v takom zdieľaní dát, aby dáta nebolo možné stiahnuť a aby všetky otázky, ktoré sa v databáze vykonávajú, mohli byť sledované ich správcom. „To, čo presadzujeme, je vykonávanie analýzy dát vo veľmi bezpečnom prostredí, aby sme vylúčili všetkých nekalých hráčov, ktorí sa snažia dáta využiť z nejakých iných dôvodov ako ku zlepšeniu zdravotného stavu populácie,“ uzatvára hlavný vedecký pracovník MIT.

Zdieľajte článok

Odporúčané

Editoriál

9. 5. 2022

To, ako teraz vyzerá pregraduálna výchova lekárov, ovplyvní klinickú prax a kvalitu starostlivosti s odstupom desiatich, pätnástich rokov. Prinášame…

Editoriál

24. 1. 2023

Vážení čitatelia, otvárate  prvé vydanie elektronického časopisu Tribune.sk v roku 2023. Aký bude tento rok pre slovenské zdravotníctvo? Ustoja…