Около година след като станах родител, разчитах на съвети и трикове, за да поддържам бебето си здраво и щастливо. Детето ми продължи да расте пред очите ми и аз започнах да усещам, как заседналата в гърдите ми буца започва да се разпада и на нейно място да се развива любопитство.
След старта на детската градина детска градина (или, както казват германците — Kita), други родители в Берлин, където живеем, ме предупредиха, че ще ни залее лавина от болести. Затова, в този особен етап на несигурност, направих това, което правят много родители — обърнах се към интернет.
Този път се обърнах към ChatGPT — източник, за който бях обещала никога да не използвам. Зададох ясен, но фундаментален въпрос: „Как да поддържам здравето на детето си?“
Отговорите бяха практични: избягвайте добавена захар, следете за признаци на температура и говорете често с детето. Но частта, която ме накара да се притесня, беше последното искане: „Ако ми кажете възрастта на детето, мога да ви дам по-точен отговор.“
Разбира се, трябва да съм информирана за здравето на детето си, но покрай нарастващия ми скептицизъм към изкуствения интелект, реших да не продължа разговора.
По-рано тази година подобна случка се разигра и в САЩ. С набиращата скорост епидемия от морбили, детското здраве се превърна в значим политически проблем, а Департаментът по здравеопазване и социални услуги, ръководен от Робърт Ф. Кенеди, стартира кампания, начело с комисия „Да направим Америка отново здрава“ (Make America healthy again – MAHA), целяща борба с хроничните детски болести.
Съпътстващият доклад твърдеше, че разглежда основните заплахи за здравето на децата: пестициди, лекарства по рецепта и ваксини. Най-поразителното в него бяха грешки в източниците и необоснованите заключения.
Външни изследователи и журналисти смятаха, че това предполага използването на ChatGPT при съставянето на доклада.
Още по-притеснително беше твърдението, че докладът MAHA съдържаше позовавания на несъществуващи изследвания. Това съвпадна с вече известното за изкуствения интелект — той може не само да въвежда неверни цитати, но и да халюцинира, т.е. да измисля несъществуващи материали.
Епидемиологът Катрин Кийс, посочена като първи автор на изследване за тревожността при подрастващи в доклада MAHA, заяви: „Статията, на която се позовава докладът, не е истинска и нито аз, нито моите колеги сме работили по нея.“
Заплахата от изкуствения интелект може да изглежда нова, но ролята му в разпространението на медицински митове се вмества в стария модел на шарлатаните, които продават фалшиви лекове.
През 17-и и 18-и век не са липсвали шарлатани, продавали препарати срещу язви и очни гнойни образувания. Макар и без медицинско образование, „лечители“ като Буонафеде Витали и Джовани Гречи са могли да получат лиценз за продажба на своите серуми.
Публичните площади им давали възможност да събират хора, да ги забавляват и да ги насърчават да купуват продуктите им, сред които и balsamo simpatico (симпатиков балсам) срещу венерически болести.
Днес шарлатанството е по-сложно, защото разполагаме с далеч по-мощни инструменти — като изкуствения интелект, който в крайна сметка е по-опасен дори от измамниците в миналото. Тази дезинформация може да се появи на платформи, които приемаме за надеждни, като търсачките например, или да се маскира като научни статии — а те са едни от най-надеждните ни източници изобщо.
Иронично е, че Кенеди младши, който ръководи здравния департамент, твърди, че водещи рецензирани медицински списания като Lancet и New England Journal of Medicine са корумпирани.
Изкуственият интелект е изключително удобен и много хора се обръщат към него за медицински съвети. Но има сериозни опасения относно използването му. Достатъчно вредно е само да го приемаме като индивид, но когато едно правителство разчита на AI за медицински доклади, това може да доведе до подвеждащи изводи за общественото здраве.
Свят, наситен с AI платформи, създава среда, в която фактите и измислиците се смесват, а научната обективност се губи.
Технологичният журналист Карън Хао уместно отбелязва в Atlantic: „Как да управляваме изкуствения интелект? Когато AI е на път да промени толкова много ключови функции в обществото, този въпрос всъщност означава: как да гарантираме, че ще направим бъдещето си по-добро, а не по-лошо?“
Трябва да се заемем с този въпрос, създавайки правила за управление на AI, вместо да приемаме безразсъдна правителствена политика спрямо него.
Индивидуалните решения могат да бъдат полезни за облекчаване на страховете ни, но ни трябват стабилни и адаптивни политики, които да държат големите технологични компании и правителствата отговорни за злоупотребата с AI. В противен случай рискуваме да създадем среда, в която шарлатанството става норма.
Коментарът е публикуван в The Guardian. Заглавието е на редакцията на ДЕБАТИ.БГ.