AI v medicíne a etika

Rebeka Uhrinová
EDTECH KISK
Published in
7 min readJun 13, 2024

Úvod

Umelá inteligencia (artificial intelligence — AI) a jej vývoj je jednou z najpálčivejších tém súčasnosti, a to hlavne z dôvodu, že pomaly ale iste zasahuje do takmer všetkých oblastí nášho života. Či už ide o každodenné aktivity človeka, ako napríklad písanie textu alebo obyčajné prehliadanie internetových stránok a personalizované reklamy, dopad na spoločnosť je stále väčší a to so sebou, pochopiteľne, prináša množstvo otázok a problémov. Vo svojej práci chcem priniesť prehľad niektorých etických problémov, ktoré umelá inteligencia prináša do oblasti medicíny.

AI v medicíne

Vytvorené pomocou DALL-E 3

Podľa Hendla (2020) má umelá inteligencia v medicíne veľký potenciál — svoje uplatnenie nachádza v diagnostike, v klinickom rozhodovaní a tiež v osobnej medicíne. Medicína využíva hlavne niektoré špecifiká umelej inteligencie, ako strojové učenie, spracovávanie prirodzeného jazyka, robotiku či pravidlami určené rozhodovanie. Z tohto dôvodu má v budúcnosti veľký potenciál aj kyborgizácia a rozširovanie fyzických možností človeka.

Halata (2023) prináša vo svojej štúdii Současná úroveň implementace prvků umělé inteligence do medicíny konkrétne príklady využitia umelej inteligencie v medicíne: v diagnostike uľahčuje lekárom prácu napríklad pri odhaľovaní karcinómu prsníka, pri diabete, pri určovaní druhov arytmií (AI v kardiológii je samostatná, veľmi rozsiahla kapitola), ale svoje uplatnenie nachádza aj pri biometrickom rozpoznávaní či v diagnostike Parkinsonovej choroby, hematologických ochorení a vyhľadávaní patológií na RTG snímkach.

Nemôžeme vynechať ani preventívnu medicínu. Autor tu spomína matematicko-fyzikálny model, vďaka ktorému je možné kontrolovať diabetes 2. typu (tzv. riadenou životosprávou). Odborník, ktorý s týmto modelom prišiel, ho najprv otestoval na sebe, avšak nebol jediný, kto podobný model vytvoril — v súčasnej dobe modely už obsahujú prvky AI, ktoré majú schopnosť predikovať hladinu glukózy v krvi pri hladovaní či po jedle.

V zobrazovacích metódach má umelá inteligencia nezastupiteľné miesto. Je priamou podporou rádiológov pri vyhodnocovaní snímok či pri stanovovaní diagnózy. Súčasnou otázkou je najmä budúce osamostatnenie AI v tejto oblasti. Existuje niekoľko aplikácií, ktoré využívajú umelú inteligenciu v zobrazovacích metódach. Medzi ne patrí napríklad počítačom podporovaná diagnostika (CAD), ktorá dokáže rozlíšiť chorobné ložiská od zdravého tkaniva. Dôležitá je tiež analýza pľúcnej tomografie, ale aj optimalizácia radiačnej dávky pre pacienta. V súčasnosti je vďaka integrácii algoritmov AI možné znížiť dávku a zároveň zachovať kvalitu obrazu. Umelá inteligencia pomáha znížiť šum či pruhové artefakty zo snímok vytvorených danými zobrazovacími metódami. V neposlednom rade Halata vyzdvihuje výhody softwareov založených na AI, ktoré dokážu rozpoznávať špecifické anatomické štruktúry.

Možností využitia umelej inteligencie v medicíne je oveľa viac, napríklad v oblasti infekčného lekárstva, epidemiológie, chirurgie či dermatológie. Podrobný popis funkcií AI v spomenutých odboroch medicíny by však presiahol tému aj rozsah tejto práce.

Etické zásady a AI

Hendl (2020) však rozoberá okrem výhod aj etické aspekty poskytovania zdravotnej starostlivosti pacientom prostredníctvom umelej inteligencie. Uvádza zoznam hlavných otázok, ktoré vyvstávajú pri zamýšľaní sa nad bezpečnosťou a kvalitou starostlivosti pri uvedení umelej inteligencie do lekárskej praxe. Podľa Hendla etika umelej inteligencie a jej spôsob riešenia problémov môže mať v budúcnosti významné následky na zdravotný stav pacientov. Tieto následky môžeme deliť na krátkodobé, strednedobé a dlhodobé.

Medzi krátkodobé patrí podľa autora posun v rozložení dát, pretože je rozdiel medzi súčasnou populáciou, ktorá sa v oblasti AI ešte vzdeláva, a tou, na ktorej sa prístroje využívajúce umelú inteligenciu budú v praxi používať. Tento rozdiel v dátach môže byť tiež spôsobený posunom času. Ďalším krátkodobým dôsledkom je necitlivosť dopadov — systém nedokáže brať do úvahy efekt falošne pozitívnych a falošne negatívnych rozhodnutí v klinickom kontexte. Rozhodovanie formou „čiernej skrinky“ je samostatným problémom, ktorému sa vo svojom článku venuje aj Kundu (2021) a nižšie je rozobraný podrobnejšie.

K strednedobým následkom patrí podľa autora článku automatické uspokojenie, posilňovanie zastaralých postupov a sebanaplňujúce sa proroctvá. Princíp automatického uspokojenia spočíva v prikladaní väčšej dôležitosti systému bez toho, aby boli brané do úvahy možné problémy, ktoré sa v systéme môžu vyskytnúť. Problém posilňovania zastaralých postupov je významný z dôvodu, že systémy využívajúce AI sú trénované na historických dátach podporujúcich predchádzajúce postupy lekárskej praxe a neadaptujú sa tak na zmeny či najnovšie zavedené postupy. Posledný zo strednedobých dôsledkov, sebanaplňujúce sa proroctvo, je spôsobený tým, že systém nepriamo posilňuje prítomnosť klinických stavov, na ktorých detekciu je naprogramovaný.

K dlhodobým dôsledkom autor zaraďuje vedľajšie negatívne efekty — sústredenie systému len na obmedzenú škálu problémov bez toho, aby bol do úvahy braný širší kontext. Ďalším z problémov je získanie odmeny za dosiahnutie nesprávneho cieľa — systém pracuje so zástupnou premennou, to znamená, že mu nejde o správny cieľ a tak nereaguje v snahe vyriešiť reálny problém, ale môže sa správať nečakane. Taktiež dôležitým dôsledkom je nebezpečná explorácia — znamená to, že systém skúša zásahy, ktoré môžu byť nebezpečné. Posledným z následkov je nesplniteľné monitorovanie — pre správne fungovanie systému je potrebné veľké množstvo času monitorovania a podrobné informácie, aby bolo dosiahnuté rozhodnutie.

Kundu (2021) vo svojom článku podrobnejšie približuje problematiku čiernej skrinky, o ktorej sa zmieňuje aj Hendl. Zastáva názor, že využívanie umelej inteligencie v medicíne musí byť vysvetliteľné a nesmie sa spoliehať na tzv. logiku čiernej skrinky. Podľa autorky tradičné strojové učenie dokáže rozoznať priame náznaky hroziaceho ochorenia, ale algoritmus nedokáže vysvetliť logiku, na základe ktorej sa systém takto rozhodol. Spoliehanie sa na zariadenia, ktorých logika je neprehľadná, porušuje zásady lekárskej etiky. Medicína čiernej skrinky neumožňuje lekárom overiť kvalitu testovaných údajov, čo je v rozpore s medicínou založenou na dôkazoch. Taktiež autonómia a informovaný súhlas pacientov môžu byť ohrozené, ak systém umelej inteligencie nebude spochybniteľný a to vyvoláva etické obavy.

Ďalšou otázkou je potenciálna zaujatosť algoritmov, ktorá môže tiež porušovať zásady prospešnosti a neškodnosti (napríklad algoritmus AI určený na stanovenie stupňa ochorenia na základe nákladov na zdravotnú starostlivosť bol zaujatý voči pacientom čiernej pleti). Ďalším z problémov, na ktoré podľa autorky článku súčasná medicína naráža, je implementácia robotických lekárov do praxe. Problematické je to najmä z hľadiska dôvery v prístroje, pričom je znova súčasťou strojové učenie a jeho premeny, ku ktorým by po čase mohlo dôjsť. Potenciálne riziká sú aj v transparentnosti postupu práce týchto prístrojov, keďže zatiaľ nie je známe, na akom princípe by pracovali a to vyvoláva množstvo otázok. Etická otázka problematiky týchto systémov je v tomto prípade spojená napríklad s Hippokratovou prísahou, ktorá okrem iného požaduje od zdravotníkov záväzok k neublíženiu na zdraví. Medicína čiernych skriniek bez klinického prepojenia tak podľa autorky nie je správnou medicínou.

Niektoré problematické okruhy etiky a AI

Hendl sa vo svojom článku ďalej venuje problémovým okruhom, ktoré umelá inteligencia do oblasti etiky v medicíne prináša. Medzi tieto podľa neho patrí:

· Zaistenie rámcových podmienok pre ochranu dát — riešenie by si vyžadovalo stanovenie pravidiel pre anonymizáciu a právo na prerušenie spolupráce. Pri riešení otázky o darcovstve orgánov by bolo potrebné prihliadať k dobrovoľnosti a autonómii, aby nedochádzalo k úniku citlivých dát;

· Medicínska perspektíva, prednosť a ochrana osobných dát by mala byť vyvážená právnym rámcom, z čoho vyvstáva otázka, či je pri zvýšenej pravdepodobnosti lepšej diagnózy vždy povinné využiť umelú inteligenciu;

· Vytvorenie predpokladov zrozumiteľnosti rozhodovania umelej inteligencie pre všetkých užívateľov — transparentnosť klesá so zvyšovaním komplexity viacerých AI systémov. Zohľadnené by mali byť aj potreby pacientov so špeciálnymi potrebami, s psychickými ťažkosťami či potreby imigrantov;

· Garancia autonómie ľudí, ktorá spočíva v rozhodovaní medicínskeho personálu v kritických situáciách. Umelá inteligencia by ich mala iba podporovať, nie rozhodovať za nich;

· Nutnosť reflexie a diskusie efektivity systémov umelej inteligencie na spoločenské chápanie zdravia, choroby a celkového obrazu človeka.

Diskusie v tejto oblasti priviedli odborníkov k niekoľkým predbežným záverom a krokom, ktoré by mali byť podniknuté pri využívaní umelej inteligencie v zdravotníctve. Medzi ne patrí napríklad nutnosť zaistenia bezpečia — bezpečnostné prvky majú byť zabudované priamo do technológií využívajúcich AI. Tieto systémy by mali zaručovať ochranu súkromia a bezpečie údajov. Rozhodovanie alebo odporúčanie umelej inteligencie musí byť transparentné a to najmä pre ľudí, ktorí sa spoliehajú na výsledky týchto systémov. Podstatná je aj prístupnosť AI technológií pre každého zdravotníka či pacienta, ktorý má prístup k zdravotníckemu systému. A napokon, učiace sa systémy by mali byť schopné rozoznať aj nové nebezpečenstvá a reagovať na ne.

Záver

V roku 2018 Európska komisia predložila ostatným riadiacim orgánom Koordinovaný plán v oblasti umelej inteligencie. Podľa tohto plánu môže byť umelá inteligencia lekárom v ich praxi veľmi nápomocná: „Umělá inteligence nám může pomoci řešit některé z největších světových problémů. Díky ní mohou lékaři zlepšit diagnostiku a vyvinout terapie pro nemoci, pro které dosud žádná léčba neexistuje … Umělá inteligence mění svět jako kdysi parní stroj nebo elektřina“ (Koordinovaný plán v oblasti umělé inteligence | Shaping Europe’s digital future, 2024).

Hendl teda zhŕňa problematiku rozobranú vyššie vyslovením dôvery v umelú inteligenciu, ktorá je prísľubom do budúcna v oblasti starostlivosti o zdravie. Mnohé zdravotnícke postupy a hlavne rýchlosť starostlivosti o pacienta by sa veľmi zefektívnili, avšak je nutné pochopiť princípy, na základe ktorých AI pracuje a takisto rozumieť obmedzeniam, nie len výhodám. Dôležité je pristupovať zodpovedne k nasadzovaniu systémov využívajúcich umelú inteligenciu do praxe, pretože ako bolo v celej tejto práci spomínané, nezodpovednosť by mohla mať závažné dlhodobé dôsledky v oblasti etiky a práv pacienta. Je preto nevyhnutné priebežne diskutovať o vedeckých dôkazoch v tejto oblasti — nové štandardy o interakcii medzi AI a človekom nesmú predbehnúť etické zásady platné doteraz. V neposlednom rade je tiež dôležité, aby bolo užívateľom umožnené podieľať sa na vývoji umelej inteligencie, pretože mnohé technológie vznikajú bez toho, aby boli brané do úvahy potreby budúcich užívateľov.

Použitá literatúra

Halata, D. (2023). Současná úroveň implementace prvků umělé inteligence do medicíny. Practicus.

Hendl, J. (2020). UMĚLÁ INTELIGENCE V MEDICÍNĚ A ETIKA. Medsoft, 32, 12–15. https://doi.org/10.35191/medsoft_2020_1_32_12_15

Koordinovaný plán v oblasti umělé inteligence | Shaping Europe’s digital future. (2024). https://digital-strategy.ec.europa.eu/cs/policies/plan-ai

Kundu, S. (2021). AI in medicine must be explainable. Nature Medicine, 27(8), Article 8. https://doi.org/10.1038/s41591-021-01461-z

--

--