Google видаляє свої штучні інтелект-резюме з конфіденційних медичних пошуків

  • Google вимкнув огляди штучного інтелекту для певних запитів щодо тестів функції печінки після розслідування The Guardian.
  • Експерти попереджають, що зведення штучного інтелекту надавали медичні дані без контексту, ігноруючи такі фактори, як вік, стать, етнічна приналежність чи громадянство.
  • Організації охорони здоров'я закликають Google надати пріоритет надійним медичним джерелам та вирішити проблему структурно, виходячи за межі окремих випадків.
  • Ця справа знову відкриває дебати в Європі щодо ролі штучного інтелекту в охороні здоров'я та відповідальності великих технологічних компаній за медичну інформацію в Інтернеті.

Охорона здоров'я через штучний інтелект Google

Google вирішив відкликати деякі зі своїх медичні звіти, згенеровані за допомогою штучного інтелекту результатів пошуку, після того, як журналістське розслідування показало, що вони можуть надавати помилкову та потенційно небезпечну медичну інформацію. Цей крок впливає на функції, відомі як Огляди ШІ, поля швидких відповідей, що відображаються у верхній частині Пошуку Google.

Компанія стверджує, що ці резюме загалом корисний та надійний для більшості користувачівАле справу розкрила британська газета The Guardian Воно зосередило увагу на тому, як Google обробляє пошукові запити, пов’язані зі здоров’ям, що є особливо чутливою сферою як у Великій Британії, так і в решті Європи.

Чому Google видалив огляди штучного інтелекту в охороні здоров'я

Суперечка спалахнула, коли Видання The Guardian виявило, що огляди штучного інтелекту повертали дані медичного аналізу без належного контексту.Зокрема, під час пошуку за запитом «який нормальний діапазон для аналізів крові на печінку» або «який нормальний результат тесту функції печінки» штучний інтелект Google відображав довгий список числових значень, представлених як нормальні, без уточнення, що ці діапазони залежать від кількох особистих факторів.

Фахівці з гепатології та представники організацій пацієнтів попередили, що такий спосіб подання інформації може бути вводить в оману людей із серйозними захворюваннями печінкиКористувач із симптомами або історією захворювання може побачити свої результати в межах цих загальних діапазонів, вважати, що все гаразд, і відкласти візит до свого сімейного лікаря або спеціаліста — що особливо тривожно в системах охорони здоров’я, таких як Іспанія, де… раннє виявлення це ключ.

Одним із найбільш критикованих моментів є те, що в резюме не враховувалися такі основні змінні, як вік, стать, етнічна приналежність або громадянство пацієнтаНа практиці це передбачає змішування референсних даних з різних лабораторій та країн, створюючи видимість точності, яка насправді не підтверджена клінічно.

Після публікації дослідження, Google продовжив вимкнути огляди штучного інтелекту для цих конкретних запитів щодо функції печінкиЗгідно з самим аналізом, пошукові запити, на які це впливає The GuardianВони перестали показувати вікно ШІ, хоча в багатьох випадках першим органічним результатом ставала саме стаття, яка засуджувала проблему.

Найбільш уражені медичні консультації: печінкові проби

Найбільш яскравими прикладами були відомі печінкові проби, дуже поширені як у закладах первинної медичної допомоги, так і в європейських лікарнях. Ці тести охоплюють набір аналізів (таких як АЛТ, АСТ, білірубін, лужна фосфатаза та ГГТП, серед інших), які вимагають індивідуальна клінічна інтерпретація і їх не можна звести до одного діапазону, справедливого для всіх.

За словами Ванесси Хебдітч, директорки з комунікацій та політики в Британський фонд печінкиВідповіді, згенеровані штучним інтелектом Google, пропонують списки чисел, які навіть не завжди відповідали конкретному тесту що могло бути проведено на пацієнті. Крім того, було незрозуміло, як хтось міг мати, здавалося б, нормальні результати і все одно страждати від серйозного захворювання печінки на ранній стадії.

Хебдітч привітав видалення цих резюме Google, вважаючи це необхідним кроком для уникнення плутанини. Однак він наполягав на тому, що проблема виходить далеко за рамки кількох пошукових запитів: тривожним є те, що логіка побудови оглядів стану здоров'я на основі штучного інтелекту може відтворити ту саму невдачу під час інших медичних консультацій.

Британська газета сама підтвердила це, дещо змінивши формулювання питання на такі вирази, як «референтні діапазони для тестів функції печінки» або «референтний діапазон LFT», Автоматичні зведення продовжували з'являтисяПринаймні, протягом перших кількох годин після того, як справа стала відомою. Лише після подальших перевірок було підтверджено, що Google також видалив ці розширені результати.

Офіційна відповідь Google та її обмеження

У відповідь на критику, речник Google заявив, що компанія зазвичай не... Коментуйте конкретні виведення коштів у вашій пошуковій системіЗамість того, щоб надати детальну інформацію про те, які саме запити були змінені, представник просто заявив, що компанія працює над «широкими покращеннями» та застосовує свої внутрішні політики, коли виявляє, що контенту зі штучним інтелектом бракує необхідного контексту.

Речник додав, що внутрішня команда медичних працівників переглянула пошукові запити, позначені The Guardian і, згідно з його версією, у багатьох випадках Інформація не була суто неточною та була підтверджена високоякісними вебсайтами.Тому суперечка зосереджена не стільки на тому, чи були дані неправдивими, скільки на тому, як їх було представлено користувачам без медичної підготовки.

Це уточнення є актуальним для європейської дискусії щодо регулювання штучного інтелекту в охороні здоров'я, оскільки воно зосереджене на відповідальність великі платформи під час контекстуалізації контентуПростого посилання на авторитетні джерела недостатньо, якщо автоматизоване резюме може призвести до неправильних інтерпретацій делікатних тем, таких як діагностичні тести чи клінічні параметри.

Наразі компанія не робила жодних конкретних публічних оголошень для Іспанії чи інших європейських країн щодо подальших змін в Оглядах здоров'я на основі штучного інтелекту. Однак рішення щодо пошукової системи зазвичай застосовуються в усьому світі, тому Користувачі в Європі також зіткнуться з проблемами функціональності штучного інтелекту. під час роботи із запитами, подібними до тих, що виявлені у Великій Британії.

Занепокоєння з боку організацій пацієнтів та експертів охорони здоров'я

Окрім конкретного випадку з тестами функції печінки, кілька організацій скористалися нагодою, щоб попередити про ширшу проблему: труднощі, з якими стикаються багато людей у ​​доступі до чіткої та достовірної медичної інформації в інтернеті. Сью Фаррінгтон, президент Форум інформації для пацієнтівВін назвав видалення цих зведень «гарним першим кроком», але наголосив, що досі існує забагато прикладів неправильного медичного контенту, згенерованого штучним інтелектом.

Тому ці організації просять Google та інші великі технологічні компанії взяти на себе зобов'язання пріоритезація посилань на санітарні застосування та рекомендаційні організації охорони здоров'ятакі як державні служби охорони здоров’я, університетські лікарні або визнані асоціації пацієнтів. Вони також вимагають, щоб у явно конфіденційних пошукових запитах (наприклад, про рак, психічне здоров’я або результати тестів) штучний інтелект включав видимі попередження, щоб заохотити користувачів звернутися до медичного працівника.

Фаррінгтон зазначив, що мільйони дорослих у Великій Британії, Іспанії та інших європейських країнах вже мають труднощі з розумінням традиційної медичної інформації, навіть з офіційних джерел. Якщо додати до цього... шар штучного інтелекту, який конденсує складний контент без нюансів, ризик непорозумінь ще більше зростає.

Так само, експерти з технологій, такі як Віктор Тангерманн, старший редактор спеціалізованого медіа-видання ФутуризмВони вважають, що цей випадок чітко ілюструє це Системи генеративного штучного інтелекту ще не готові замінити професійні медичні рекомендаціїТангерманн вказує на необхідність встановлення чітких обмежень щодо того, де і як слід розгортати ці типи резюме.

Наслідки для Європи та медичного пошуку іспанською мовою

Хоча про справу стало відомо завдяки британському ЗМІ, її наслідки безпосередньо впливають на Європейський Союз, зокрема Іспанію. Європейські правила щодо штучного інтелекту, що просуваються через Закон про ШІВін вже містить конкретні вимоги для систем високого ризику, зокрема для сектору охорони здоров'я, що може вплинути на те, як Google та інші платформи структурують свої пошукові продукти.

На практиці мільйони людей у ​​Європі використовують Google як перша контактна особа з питань здоров'янавіть до того, як зателефонувати до свого медичного центру або служби запису на прийом. Це означає, що будь-який недолік у відображеній інформації, яким би незначним він не був, може вплинути на те, як користувачі інтерпретують симптоми, аналізи чи лікування.

Для країн із державними системами охорони здоров’я, як-от Іспанія, де заохочуються кампанії зі скринінгу та ранньої діагностики, викликає занепокоєння те, що один результат пошуку може відбити бажання звертатися за медичною допомогою. записатися на прийом до свого сімейного лікаря Це може прямо суперечити політиці охорони здоров'я. Звідси багато фахівців зацікавлені в тому, щоб пошукова система чітко вказувала на те, що інтерпретацію результатів тестів завжди повинен проводити медичний працівник.

У двомовних або багатомовних середовищах, таких як деякі регіони Іспанії, також існує додаткова складність, пов'язана з автоматичні переклади та згенеровані резюме Зберігайте недоторканими попередження, клінічні нюанси та конкретні референтні діапазони, які можуть відрізнятися залежно від лабораторії чи країни.

Уся ця дискусія знову порушує фундаментальне питання: якою мірою такий інструмент, як Пошук Google, тепер удосконалений генеративним ШІ, має бути задіяний в інтерпретації складних клінічних проблем? Епізод із відкликаними оглядами ШІ в охороні здоров'я свідчить про те, що, якщо немає відповідного контексту та ретельний медичний наглядБудь-яка спроба спростити медичну інформацію за допомогою штучного інтелекту ризикує створити хибне відчуття безпеки, коли найрозумнішим варіантом дій залишається консультація фахівця.

Пов'язана стаття:
Panasonic тестує службу теледогляду за допомогою планшетів