Відсутність медичних застережень в ШІ-оглядах Google: експерти б’ють на сполох щодо загроз – тех-новини

Google звинуватили у приховуванні попереджень про помилки ШІ в медичних запитах

© Getty Images Попередження виникають лише після кліку на кнопку “Показати більше” та дрібним шрифтом.

Після розслідування The Guardian минулого місяця, корпорація Google прибрала з пошуку певні медичні огляди штучного інтелекту, котрі надавали потенційно ризиковану та неправдиву інформацію щодо результатів аналізів. Однак, нове дослідження The Guardian виявило іншу проблему — Google ставить користувачів під загрозу, зменшуючи значущість застережень стосовно медичних рекомендацій, згенерованих штучним інтелектом.

Застереження виникає лише після кліку на кнопку “Показати більше” під резюме, і навіть тоді воно розміщене внизу сторінки більш малим та світлим шрифтом. У тексті попередження вказано: “Інформація надається лише для ознайомлення. Для отримання лікарської консультації або встановлення діагнозу, зверніться до фахівця. Відповіді ШІ можуть містити неточності”.

Приклад відповіді Google AI.

Приклад відповіді Google AI.Скріншот ZN.UA

У Google заявили, що огляди ШІ “спонукають людей звертатися за фаховою медичною допомогою” та згадують про це в самому тексті, “коли це необхідно”. Разом з тим, компанія не спростувала, що під час першої демонстрації медичної поради окреме застереження не показується.

Експерти з етики штучного інтелекту та представники пацієнтських організацій виразили стурбованість. Вони акцентують увагу на тому, що застереження повинні бути помітними з самого початку, адже мова йде про чутливу сферу охорони здоров’я.

Пет Патаранутапорн, науковець Массачусетського технологічного інституту, зауважив: “Відсутність застережень під час початкового надання користувачам медичної інформації створює декілька критичних ризиків”. За його словами, навіть найбільш передові моделі ШІ можуть генерувати дезінформацію або надавати відповіді, орієнтовані на задоволення користувача, а не на об’єктивність.

“Застереження виконують важливу роль втручання. Вони руйнують цю автоматичну довіру та заохочують користувачів більш критично відноситися до отриманої інформації”, — додав науковець.

Професорка Лондонського університету королеви Марії Джина Нефф заявила, що “проблема з неякісними оглядами ШІ є навмисною”. За її словами, огляди створені для швидкості, а не точності, що може бути небезпечним в області медичної інформації.

Соналі Шарма з Центру штучного інтелекту в медицині та візуалізації Стенфордського університету звернула увагу на розміщення оглядів у верхній частині сторінки. За її словами, це формує відчуття вичерпної відповіді та може зменшувати мотивацію користувачів шукати додаткові відомості чи переглядати застереження.

“Ми знаємо, що дезінформація — це справжня проблема, але коли мова йде про дезінформацію щодо здоров’я, вона потенційно дуже шкідлива”, — заявив Том Бішоп з благодійної організації Anthony Nolan та додав, що попередження має бути розміщене в самому верху і таким самим шрифтом, як основний текст.

У січні The Guardian вже повідомляло про ризики, пов’язані з помилковою та неправдивою інформацією про здоров’я в оглядах Google AI. Після публікації компанія видалила огляди ШІ для частини медичних запитів, але не для усіх.

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *