Drodzy stali Czytelnicy a także Goście naszego portalu, nasz projekt funkcjonuje przede wszystkim dzięki Waszemu wsparciu i zaufaniu.

WSPARCIE FINANSOWE (DAROWIZNA)

Wpłaty Krajowe- Nr. Konta:

39 8811 0006 1002 0205 2764 0250

Wpłaty Zagraniczne- Nr. Konta:

PL39 8811 0006 1002 0205 2764 0250

Kod SWIFT: POLUPLPR

Tytułem: Darowizna na cele statutowe


Nie ufaj „ChatBotom” w kwestiach zdrowia: wielu użytkowników wciąż pokłada w sztucznej inteligencji złudne nadzieje.

0
W teście wzięło udział 21 głównych modeli językowych, w tym systemy od OpenAI, Anthropica, Google’a, xAI oraz DeepSeeka. Wyniki były alarmujące. Powyżej 80% błędów – taki wynik odnotowały wszystkie modele w sytuacjach wymagających diagnostyki różnicowej (czyli sporządzenia listy możliwych schorzeń przy niepełnych danych). Poniżej 40% błędów – do tego poziomu spadła awaryjność dopiero po dostarczeniu kompletnych informacji. W fazie ostatecznej diagnozy najlepsze modele osiągnęły skuteczność przekraczającą 90%.

Michael Peel z Financial Times ostrzega: „Nie polegaj na swoim ulubionym chatbocie AI w sprawach dotyczących zdrowia. Jeśli system nie potrafi dostarczyć precyzyjnych informacji, nie oczekuj od niego trafnej diagnozy. Mimo ostrzeżeń wyświetlanych przez wszystkie modele AI, by konsultować się z lekarzem, wielu użytkowników wciąż pokłada w sztucznej inteligencji złudne nadzieje”.

Chatboty AI zawodzą w obszarze diagnoz medycznych, zwłaszcza gdy dysponują niepełnymi informacjami. Potwierdza to nowe badanie, które podkreśla ryzyko traktowania algorytmów jako „cyfrowych lekarzy”. Z analizy wynika, że wiodące duże modele językowe (LLM) mają trudności z opracowaniem szerokiego spektrum możliwych diagnoz w sytuacjach, gdy dane pacjenta są ograniczone. W takich przypadkach sztuczna inteligencja zbyt szybko skłania się ku jednej, często błędnej odpowiedzi.

Wyniki te wskazują na fundamentalne ograniczenie technologii: choć chatboty świetnie radzą sobie z identyfikacją chorób przy pełnym opisie przypadku, stają się skrajnie zawodne na wczesnych, niepewnych etapach podejmowania decyzji klinicznych. Poleganie wyłącznie na AI przy niejasnych lub niekompletnych danych wprowadzanych przez użytkownika jest po prostu niebezpieczne.

Modele te doskonale radzą sobie z postawieniem ostatecznej diagnozy, gdy wszystkie dane są już na stole. zawodzą jednak na samym początku sprawy, gdy dostępnych informacji jest niewiele.”

Wyjaśnia Arya Rao, główna autorka badania i badaczka w systemie opieki zdrowotnej Mass General Brigham w Massachusetts.

Badanie, opublikowane w poniedziałek w czasopiśmie „JAMA Network Open”, polegało na przetestowaniu sztucznej inteligencji na 29 studiach przypadków klinicznych, opartych na standardowych podręcznikach medycznych. Eksperyment polegał na stopniowym ujawnianiu danych: od historii choroby, przez wyniki badań fizykalnych, aż po testy laboratoryjne. Naukowcy mierzyli wskaźnik błędów, rozumiany jako odsetek odpowiedzi, które nie były w pełni poprawne.

W teście wzięło udział 21 głównych modeli językowych, w tym systemy od OpenAI, Anthropica, Google’a, xAI oraz DeepSeeka. Wyniki były alarmujące. Powyżej 80% błędów – taki wynik odnotowały wszystkie modele w sytuacjach wymagających diagnostyki różnicowej (czyli sporządzenia listy możliwych schorzeń przy niepełnych danych). Poniżej 40% błędów – do tego poziomu spadła awaryjność dopiero po dostarczeniu kompletnych informacji. W fazie ostatecznej diagnozy najlepsze modele osiągnęły skuteczność przekraczającą 90%.

Twórcy modeli odpierają zarzuty, wskazując na wbudowane zabezpieczenia. Anthropic wyjaśnia, że „Claude” jest szkolony tak, by kierować użytkowników do specjalistów. Google deklaruje, że „Gemini” zawiera wyraźne komunikaty zachęcające do weryfikacji informacji, a OpenAI w swoich wytycznych wprost zakazuje wykorzystywania ich usług do udzielania profesjonalnych porad medycznych bez udziału licencjonowanego lekarza. Przedstawiciele xAI oraz DeepSeeka nie skomentowali wyników.

Równolegle firmy rozwijają wyspecjalizowane modele medyczne, takie jak „AMIE” (Google) czy „MedFound”. Choć wstępne wyniki tych projektów są obiecujące, eksperci pozostają sceptyczni co do pełnego zastąpienia lekarzy. Sanjay Kinra, epidemiolog kliniczny z London School of Hygiene & Tropical Medicine, podkreśla, że ocena medyczna w dużej mierze opiera się na bezpośrednim kontakcie, wyglądzie i ogólnym stanie pacjenta – aspektach, których AI nie jest w stanie w pełni ocenić. „Mimo to technologia ta może odegrać ważną rolę w regionach o ograniczonym dostępie do opieki zdrowotnej” – dodaje Kinra. „Właśnie dlatego pilnie potrzebujemy dalszych badań z udziałem prawdziwych pacjentów w takich środowiskach”.


Autor: Aurelia

Na podstawie: UncutNews.ch

Fot. Pixabay.com / BrianPenny

Źródło: WolneMedia.net


 

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *