Elsa AI плутається 742

FDA’s Elsa AI плутається в дослідженнях на думку працівників: перевірка фактів є обов’язковою

Проблеми з AI продовжуються: випадок з інструментом “Elsa” від FDA

Нові технології завжди несуть із собою як позитивні, так і негативні аспекти, і це не виключення для AI. Нещодавні проблеми з генеративним інструментом “Elsa” від US Food and Drug Agency (FDA) стали ще одним прикладом цього. “Elsa” став предметом численних обговорень через свої схильності до “галюцинацій” та неправильного тлумачення даних досліджень.

Інформаційні проблеми “Elsa”

FDA, прагнучи швидше здійснювати перевірку ліків, запровадили “Elsa” для цієї мети. Проте, їхні ж співробітники викрили проблеми цього інструменту, заявивши, що машинне навчання в даному випадку виявилося ненадійним. Згідно з їхніми свідченнями, “Elsa” часто “галюцинує” дослідження та неправильно інтерпретує справжні наукові дані, що призводить до поширення недостовірної інформації.

Один зі співробітників заявив, що “воно галюцинує впевнено”, що являє собою суттєву проблему для FDA, адже основне завдання “Elsa” — прискорити процес перевірки ліків. У результаті невірної інтерпретації даних, може постраждати якість рішень щодо схвалення ліків.

Реакція FDA на виявлені проблеми

Незважаючи на ці проблеми, FDA Комісар Марті Макарі заявив, що в агенції не було жодних обговорень щодо “цих конкретних проблем”. Він також уточнив, що використання “Elsa” залишається добровільним в рамках агентства.

Однак, співробітники наголошують, що кожен факт, перевірений “Elsa”, потребує подвійної перевірки, щоб уникнути помилок. Технологія, яка покликана спростити процес перевірки, натомість може ускладнювати його через відсутність точності.

Ширші проблеми із галюцинаціями AI

Галюцинації AI є проблемою, знайомою багатьом компаніям, що займаються генеративними технологіями, таким як OpenAI, Google, Apple, Perplexity та інші. Незважаючи на технологічний прорив, ці платформи можуть надавати неправдиву інформацію. Важливо пам’ятати, що навіть у цифрову еру людський фактор залишається ключовим у забезпеченні об’єктивності та точності інформації.

У підсумку, навіть з урахуванням технологічних досягнень, проблема “галюцинацій” AI залишається актуальною. Це ще раз підкреслює важливість критичного підходу до машинного навчання та його впливу на реальні процеси, особливо в таких важливих сферах, як медицина.

Схожі записи