Inteligencia, ktorá meria človeka: AI, dôstojnosť a hranice štandardizácie

foto: catedrabioeticalejeune

Reflexia z medzinárodnej bioetickej diskusie „Inteligencia artificial, discapacidad y bioética“ („Umelá inteligencia, zdravotné postihnutie a bioetika“)

V čase, keď sa umelá inteligencia postupne stáva súčasťou medicíny, genetiky aj každodenného klinického rozhodovania, prestáva byť otázka jej používania čisto technologickou témou. Stáva sa otázkou antropologickou: čo vlastne znamená človek v systéme, ktorý sa učí z dát, vyhodnocuje pravdepodobnosti a navrhuje rozhodnutia?

Práve týmto typom otázok  sa venovala I. edícia medzinárodných bioetických stretnutí s názvom „Umelá inteligencia, zdravotné postihnutie a bioetika“, ktorá sa uskutočnila 25. marca v Madride. Diskusia spojila odborníkov z Európy a Latinskej Ameriky a otvorila priestor pre interdisciplinárnu reflexiu na pomedzí bioetiky, práva a technológií. Medzi prednášajúcimi boli Rafael Amo Usanos (Španielsko), Leonardo Pucheta (Argentína) a Michael Baggot (Taliansko).

Algoritmy, ktoré štandardizujú človeka

Hoci sa uvažovanie o umelej inteligencii často začína v oblasti klinickej genetiky či medicínskej diagnostiky, jeho skutočný dosah siaha oveľa ďalej. Dotýka sa samotného spôsobu, akým rozumieme pojmom ako „normálnosť“, „odchýlka“ či „ľudská variabilita“. A napokon aj toho, kde sa končí pomoc technológie a začína jej schopnosť formovať rozhodovanie.

Jedným z paradoxov umelej inteligencie je, že nástroje navrhnuté na zvýšenie presnosti a individualizácie môžu zároveň vytvárať nový typ uniformity. Algoritmy pracujú s rozsiahlymi dátovými súbormi, v ktorých hľadajú opakujúce sa vzorce. To, čo sa vyskytuje najčastejšie, sa stáva modelom „štandardu“. A to, čo sa od neho odlišuje, sa môže postupne presúvať na okraj viditeľnosti.

V medicínskom kontexte má tento mechanizmus konkrétne dôsledky. Umelá inteligencia dokáže výrazne spresniť interpretáciu genetických variantov, podporiť diagnostiku či navrhovať terapeutické postupy. Zároveň však vstupuje do priestoru, ktorý neostáva neutrálne popisný – filtruje informácie, zoradí pravdepodobnosti a vytvára rámec možností, v ktorom sa následné rozhodovanie odohráva.

Práve tu sa objavuje zásadné etické napätie. Ak sa „normálne“ začne chápať ako to, čo je štatisticky najpravdepodobnejšie, potom sa odchýlka prestáva javiť ako prirodzená variácia a začína sa približovať pojmu chyby. V kontexte zdravotného postihnutia to znamená posun, ktorý nie je iba medicínsky: odlišnosť sa môže začať vnímať nie ako súčasť ľudskej plurality, ale ako odchýlka od optimalizovaného modelu.

Tento proces možno nazvať aj tichou štandardizáciou života. Podobne ako algoritmy, ktoré nám odporúčajú hudbu alebo obsah na sociálnych sieťach, aj medicínske systémy môžu postupne zužovať to, čo vidíme ako možné. To, čo je časté, sa nebadane stáva aj tým, čo je preferované. A to, čo je zriedkavé, sa nevytráca odmietnutím, ale postupným zoslabovaním viditeľnosti.

V tomto kontexte nadobúda nový význam aj kritika tzv. „liberálnej eugeniky“ v duchu filozofie Jürgen Habermas. Nejde o návrat k historickým formám donucovania, ale o jemnejší proces, v ktorom technologické a spoločenské mechanizmy začínajú formovať predstavu o tom, aký život je považovaný za „dobrý“ alebo „hodný žitia“. V prostredí algoritmických odporúčaní sa táto otázka ešte viac komplikuje, pretože nejde len o individuálne preferencie, ale o štatisticky optimalizované modely rozhodovania.

Zároveň však platí, že umelá inteligencia nie je redukovateľná na nástroj kontroly či selekcie. V medicíne prináša zásadné zlepšenia – od včasnej diagnostiky až po presnejšie a personalizované liečebné postupy. Otázka preto nespočíva v jej odmietnutí, ale v určení jej hraníc a cieľov.

Napätie sa tak presúva k otázke zodpovednosti: kto nesie dôsledky rozhodnutí, ktoré sú podporené alebo navrhnuté algoritmom? A ako sa mení samotný pojem rozhodovania v prostredí, kde sa ľudský úsudok prelína so štatistickými modelmi?

V tomto zmysle nejde len o technologickú zmenu, ale o zmenu spôsobu, akým rozumieme rozhodovaniu, normálnosti a ľudskej jedinečnosti. Umelá inteligencia neodstraňuje odlišnosti zámerne, no jej spôsob fungovania môže viesť k tomu, že ich prestávame vnímať. A práve v tomto tichom posune sa ukrýva jej najhlbšia etická výzva.

pridajte sa k Priateľom fóra života

Chcete zostať v spojení s Fórom života? Odoberajte náš Pravidelný newsletter,

kde informujeme o svojej činnosti, aktivitách, kampaniach, cieľoch.

S ním vám neuniknú žiadne novinky.

podporte našu snahu scitlivovať spoločnosť
na krehkosť každého života.