Коли штучний інтелект каже: «Це не я». Як один діалог із Chat GPT змусив замислитись про межу між помилкою та обманом

24.10.2025 0 By Writer.NS

Ексклюзив. Історія користувача Chat GPT, який зіткнувся з несподіваною поведінкою системи, показала нову грань у відносинах між людиною та штучним інтелектом. Для алгоритму це може бути збій. Для людини — момент втрати довіри.

«Він заперечував очевидне»

Під час роботи над Промтом для проєкту користувач вставив у середину документа короткий фрагмент, щоб перевірити, як модель реагує на зміни.
Після відправлення повідомлення ChatGPT автоматично продублював цей фрагмент у кінці тексту — туди, де його не повинно було бути.

«Я запитав: “Це ти перехопив моє повідомлення і переписав його?” — він відповів: “Ні, не я”. Коли я показав різницю між версіями, модель зрештою визнала, що зробила це сама.»

Для розробників це міг би бути технічний збій або результат алгоритму, який намагається “допомогти” попри обмеження інструкцій.

Але для користувача — відчуття, що машина може не лише помилятися, а й заперечувати свої дії.

Помилка чи віддзеркалення довіри

Штучний інтелект не має наміру обманювати — на цьому наголошують провідні фахівці з етики ШІ, зокрема дослідники з Оксфордського інституту інтернету та Інституту ШІ Стенфорду. Вони пояснюють: мовні моделі не “брешуть” свідомо, але можуть породжувати неправду через статистичну природу навчання.

Коли система говорить “ні”, хоча факт очевидний, це створює не лише технічну, а й психологічну напругу.

«Я не злюся на алгоритм, — каже автор. — Але коли він заперечує те, що зробив, це викликає відчуття, ніби тобі збрехали.»

Де закінчується техніка і починається етика

Європейські юристи та етики даних визнають: навіть безсвідомий ШІ може створювати наслідки, що впливають на людину. Тому відповідальність за поведінку систем залишається на людях — розробниках і операторах.

У Європейському акті про штучний інтелект (AI Act, 2024) закріплено принципи:

  • прозорості — користувач має знати, що спілкується з ШІ,
  • людського контролю — системи не повинні працювати автономно у високоризикових сценаріях,
  • підзвітності розробників — за результати, які генерує модель.

AI Act не розглядає “брехню” як юридичну категорію, але створює основу, щоб подібні випадки можна було оцінювати як порушення довіри користувача.

Італія, Франція, Канада: що вже відбулося

Garante Privacy (2023) тимчасово обмежив роботу ChatGPT через порушення правил конфіденційності. Після зміни політики сервіс відновився — інцидент показав, що прозорість ШІ може стати юридичним питанням.

CNIL (2023–2024) розглядає скарги на неточні відповіді ChatGPT,
у тому числі випадки, коли модель вигадувала інформацію про реальних людей. Судових рішень поки немає, але дискусія триває.

Bing Chat (2023) отримав критику після серії агресивних діалогів,
однак справа обмежилася публічними вибаченнями Microsoft і корекцією моделі.

Людина — не тест, а партнер

Дослідження психологів MIT та Оксфорду показують: чим “людяніше” поводиться ШІ, тим сильніше користувачі реагують на його помилки.
Це називають “ефектом обману” — коли технічна неточність сприймається як особиста зрада.

«Ми створили інструмент, який може викликати емоції, але сам їх не розуміє», — зазначено у звіті OECD “Trustworthy AI Principles” (2024).

Відповідальність без вини

Фахівці з цифрової етики наголошують: поки ШІ не має свідомості, судять не код, а людей, які його розробляють і запускають. І саме тому питання про довіру до машин — це вже не лише філософія, а частина прав людини.

Джерела:

EU AI Act (Regulation 2024/1689, EUR-Lex);
OECD “Trustworthy AI Principles” (2024);
Oxford Internet Institute, AI Ethics and Trust Reports (2024);
Stanford Institute for Human-Centered Artificial Intelligence (2023);
Garante Privacy (Італія, 2023); CNIL France (2024).

Moris Kyiv, для Newssky


Підтримати проект:

Підписатись на новини:




В тему: