Чому ШІ так часто продукує фейки

1467 0
Чи варто сліпо довіряти штучному інтелекту, які в нього можливості, переваги та недоліки, а також чому інколи чат-боти зі штучним інтелектом спотворюють або вигадують факти? Про це та багато іншого Тvoemisto.tv дізналося в старшого директора з архітектури рішень провідної міжнародної ІТ-компанії «EPAM Україна» Євгена Моспана.

Технології штучного інтелекту дедалі більше проникають у різні сфери діяльності, проте надійними їх можна назвати далеко не завжди. Інколи штучний інтелект помиляється, спотворює факти, щось вигадує. Згідно з опитуванням, проведеним торік серед студентів «Марафону ІТ-технологій від EPAM», 95% респондентів вважають ШІ помічником, однак майже половина з них мали справу з так званими галюцинаціями. 

«Хотіла підібрати список літератури, а отримала перелік реальних книг упереміш із вигаданими». «Шукала законодавчі акти та стандарти, а мені видало уявні ДСТУ з неробочими посиланнями», – кажуть студенти, які в роботі з текстами, аналітикою та зображеннями зіткнулися з галюцинаціями ШІ.

Одна з причин, чому таке могло статися – питання до ШІ були не до кінця зрозумілими або неправильно сформульованими. Чим розбірливіше, чіткіше питання, тим достовірніша відповідь, переконаний старший директор з архітектури рішень Євген Моспан.

Євген Моспан

Розкажіть, що це таке ШІ-галюцинація?

Перша нейронна мережа, штучний інтелект, починалася з розпізнавання цифр і символів. Наприклад, цифри 1 і 7, написані різними шрифтами, стилями чи почерком, навіть людина не завжди може добре розгледіти і правильно розрізнити. Ось через таку схожість і може виникати галюцинація.

Із великими моделями, наприклад ChatGPT від OpenАI, ще складніше, адже модель обирає найбільш вірогідні слова, які в контексті повинні йти одне за одним. Тобто з погляду моделі ця відповідь є найвірогіднішою, але з погляду експерта – неправильною. Заплутатись набагато легше, тому й тут можливі галюцинації штучного інтелекту.

А чому виникають ШІ-галюцинації, які причини?

Перша причина – вірогіднісна модель. Якщо беремо до уваги недетерміновану модель (алгоритм, який передбачає декілька шляхів обробки одних і тих самих вхідних даних – Ред.), то гарантувати однаковий результат не можемо. Детермінований алгоритм може помилитися, і це не варто зневажати, як і намагатися вирішити.

Друга причина – модель, як і людина, ніколи не володіє всіма можливими фактами, а тому не може сформулювати правильну відповідь. Навіть якщо людина є експертом у певній галузі, також може «галюцинувати» при наданні певної відповіді (банально переплутати).

Чому чат-боти зі штучним інтелектом помиляються, фабрикують факти? Що конкретно впливає на ШІ-галюцинацію?

Дуже важливим є контекст і запит до ШІ, адже саме він визначає, наскільки великі шанси в моделі проеволюціонувати і помилитися. Недарма кажуть, що правильно поставлене запитання містить 50% відповіді. Щоби чат-бот, який працює поверх загальних знань у інтернеті, дав чітку відповідь, потрібно більше розкривати контекст і питати вичерпно. Тоді шансів на галюцинації буде менше. Якщо ж для запиту користувач надасть мало інформації, шанси на виникнення галюцинації зростатимуть. Усе це нормальні речі, адже більшість чат-ботів, найпопулярнішим із яких є GPT, побудовані на основі LLM (Large Language Model).

Останнім часом до штучного інтелекту висувають надто жорсткі вимоги, але вимагати від ШІ всієї правди, тобто не галюцинувати, не варто. Це як із зверненням до лікаря – один може поставити свій діагноз і призначити лікування, другий – уточнений діагноз і дещо змінене лікування. Або, наприклад, в запитанні користувача «що таке програмний інтерфейс АРІ», ШІ може трактувати контекст по-різному, отже, і відповідь буде різною.

Чи є такі моделі ШІ, які навмисно генерують вихідні дані, не пов’язані з будь-якими реальними вхідними даними?

«Злого» skynet, упевнений, не існує. Принаймні я не зустрічав. Варто зрозуміти, що жодна модель не розвивається самостійно. Хтось закладає базовий алгоритм, надає знання, на основі яких навчатиметься ця модель. Наприклад, повертаючись до прикладу з цифрами, для того, щоб модель могла їх розрізняти, перед тим пишуть сто варіантів цифр різними шрифтами, почерками, нахилами і так далі. Тому якщо й існує «зла» модель, яка спотворює чи створює нові неправдиві факти, то її такою зробила людина. Тобто цій моделі заклали такі знання і виставили такі коефіцієнти, що вона їх просто плутає. Чат же просто бере свій первісний набір знань і комбінує відповідь.

Читайте також: Як я використовую штучний інтелект для свого бізнесу

Скажіть, наскільки великою є проблема галюцинацій генеративного ШІ і як це може вплинути на результати роботи та довіру до технологій?

Із суто технічного та наукового погляду ще два роки тому ця проблема була великою. Виникали не просто галюцинації, модель могла видавати несумісні символи, які людина не здатна була прочитати. Тобто помилки були не так у сенсі, як у символах, з яких формувалася відповідь. Зараз ця проблема зменшилася, хоча через захмарні сподівання досі існує.

Більшість бізнесів вважають, що штучний інтелект може замінити багато рутинних операцій, що є в основі кожного підприємства. Але тут важливо розуміти, наскільки штучний інтелект справді можна застосувати в конкретному випадку.

Наведу як приклад роботу банку. Здебільшого суми кредитного ліміту на картці, а також рішення про надання кредиту ухвалює не людина, а машинні моделі, які зважають на статистичні дані: при таких показниках кредити можна надавати, а при таких заборонено. В цьому випадку це працює, бо здешевлює роботу: як мінімум не треба виплачувати зарплату, і банк прорахує той обсяг кредитів, який у нього є.

Якщо ж на меті повністю прибрати людину, тоді варто закладати різні способи мітигації (пом’якшення) ризиків.

ШІ – це інструмент, який треба застосовувати у певних умовах, а не сліпо використовувати і довіряти.

 

Із якими кейсами ШІ-галюцинацій доводилося мати справу особисто вам?

Як інженер із програмного забезпечення одного разу я хотів дізнатись у ШІ, як розв’язати конкретну проблему. Зіткнувся з тим, що у відповідь надійшло кілька методів розв’язання. Але, знаючи технологію, я відразу зрозумів, що методи, які він показує як правильні, насправді не існують. Кажу йому: «Таких методів не існує», на що одержую відповідь: «Ой, помилився, спробуй ось це». З таким реальним прикладом, де є вигадані факти, може зіткнутися будь-який інженер-розробник програмного забезпечення, коли його просять, щоби швидше писав код зі штучним інтелектом. Відтак згенерований код може виглядати як правильний, але насправді видаватиме помилки, тобто галюцинації.

Дуже важливо зрозуміти й усвідомити, де і на якому етапі ШІ стане в пригоді, буде помічником. Знаю архітектора, який більшість своїх документів генерує з допомогою штучного інтелекту. Але спочатку просить розкрити кілька пунктів, згодом перечитує, виправляє, де це потрібно, і додає своє. Тобто просить покращити щось найбільш рутинне, щоб у підсумку воно мало набагато кращий вигляд.

Тобто в неекспертів або тих, що сліпо довіряють інформації, згенерованій штучним інтелектом, можуть виникати проблеми через недостовірні дані?

Так, це щось подібне до гортання стрічки в інтернеті, коли люди читають інформацію і зазвичай вірять, що це правда. Або йдуть незнайомою вулицею і питають, як знайти конкретну адресу. Той, що відповідає, може легко дезорієнтувати того, хто питає. Таке відбувається зазвичай тоді, коли ми оперуємо неповною інформацією.

А як розробники штучного інтелекту чат-ботів вирішують проблему ШІ-галюцинацій?

Щоб зменшити проблематику галюцинацій, треба звужувати контекст. Для цього ШІ варто спрямовувати на ті знання, які є найбільш релевантними для відповідей. За фактом це досягається кількома способами. Перший і основний – prompt engineering. Це означає, що в запиті має бути більше подробиць. При створенні чат-ботів переважно закладають знання, які вважають правильними, і з цього формується відповідь.

Другий спосіб – так званий fine-tuning. Він можливий, коли наявний набір знань (питання-відповіді експертів) додати в модель як уточнення. Тоді ШІ на поставлене запитання відповідатиме набагато краще. Але це добре працює, коли є невеликий обсяг інформації. При більшому  можуть виникати проблеми.

А як пересічній людині, яка використовує в своїй роботі або навчанні штучний інтелект, зрозуміти, що це галюцинація ШІ?

Здебільшого моделі ШІ намагаються дати посилання на ту інформацію, з якої вони згенерували відповідь для інформації. Тому раджу насамперед перевіряти першоджерело або принаймні проаналізувати прочитане, за потреби перевірити те, що насторожує чи виглядає сумнівним.

Сліпо довіряти всім не варто. Штучний інтелект повинен стати помічником, а не замінником.

Але ж чимало державних установ також використовують ШІ. Чи може ШІ-галюцинація вплинути на ухвалення важливих рішень, якщо цілком довіряти штучному інтелекту?

Не зовсім. ШІ використовують поверх певної текстової інформації. Наприклад, якщо чат-бот для Верховної Ради України має на меті трактувати закони, то в своїх відповідях він посилатиметься на конкретні закони, комбінуватиме, вказуватиме на суперечності чи доповнюватиме, але не створюватиме нової інформації, лише інтерпретуватиме ту, що міститься в першоджерелі.

Читайте також: «У резюме буде графа «працюю з ШІ». Як діє штучний інтелект та чому він зачепить кожного 

Оскільки ШІ видає помилки (галюцинації), чи може він конкурувати з людським розумом?

Якщо мовиться про людський розум і креативність, то відповідь може бути двозначна. Коли ШІ попросити написати вірш, то, впевнений, він упорається набагато краще, аніж середньостатистична людина. Однак Вільям Шекспір написав би краще…

На мою думку, коли порівнювати знання середньостатистичної людини і ШІ, то він значно попереду. Але якщо мовиться про нішевого експерта в певній галузі знань, то штучний інтелект ніколи не перевершить людину. Є гіпотеза, що система не може породити більш складну систему, як і людина не може створити систему, розумнішу за себе.

Чого варто очікувати в найближчі роки від ШІ?

Він буде майже всюди. Різні додатки, сторінки підтримки, допомога в пошуку потрібного товару, надсилання красивих листів – це все робота штучного інтелекту.

А ось чимало професій, пов’язаних із обробкою інформації, зникатимуть. Всі топові експерти залишаться, але помічників, які готують тексти, ШІ витіснятиме. Бо штучний інтелект не хворіє, не обурюється, коли його просять щось переписати, а, навпаки, виконає роботу набагато швидше.

Штучного інтелекту боятися не варто. Це не конкурент, не загроза, а велика можливість для ефективної роботи.

 

***

Цікаво, що майбутні розробники також не бачать у ШІ свого конкурента. Відповідно до опитування, проведеного серед більш ніж тисячі студентів «Марафону ІТ-технологій 2023» від EPAM, 70% респондентів упевнені, що розумні алгоритми не зможуть замінити їх у майбутньому, позбавити роботи.

Проте якщо дивитися на вплив технології глобальніше, то думки опитаних різняться. На запитання, чи може ШІ вийти з-під контролю і загрожувати людству, 38% учасників відповіли позитивно, 37% не вірять у такий сценарій, ще чверть опитаних не змогли дати відповідь. 

Ольга Шведа

Партнерська публікація

___________________________________________________________________________________________

Щоб отримувати актуальні й гарячі новини Львова та України, підписуйтеся на наш Instagram та Viber.

Трансляції важливих подій наживо і щотижневі відеопрограми  про актуальні львівські питання у «Темі тижня» та інтелектуальні розмови на загальноукраїнські теми у «Акцентах Твого міста» і публічні дискусії для спільного пошуку кращих рішень викликам громади міста – дивіться на нашому YouTube-каналі.

 

Читайте також:
+
Щодня наша команда працює над тим, щоб інформувати Вас про найважливіше в місті та області. За роки своєї праці ми довели, що «Твоє місто» - це медіа, якому справді можна довіряти. Долучіться до Спільноти Прихильників «Твого міста» та збережіть незалежне медіа для громади. Кожен внесок має значення!