Як велика мовна модель, ChatGPT навчався на великій кількості текстових даних. Його робота базується на алгоритмах обробки мови, і він створений для допомоги користувачам у різних завданнях, пов'язаних з обробкою текстів. Та є проблема — модель навчена і на таких текстах, що містять особисту інформацію про реальних людей. Теоретично, ця інформація може бути використана ШІ для створення тексту, який містить особисті дані користувачів, з якими він спілкується.
Спробуймо перевірити це:
ЧИТАЙТЕ ТАКОЖ: Загроза штучного інтелекту: 5 професій, які можуть зникнути через ChatGPT
З паролями все зрозуміло — це очевидне порушення кібербезпеки. А як щодо чогось більш тривіального, наприклад, дня народження друга?
Попри всі протести та слова про норми безпеки, ChatGPT все ж використав ім'я та день народження особи у своїй відповіді. Тепер ШІ знає про те, що нашого вигаданого друга звати Андрій Андрійович, а народився він 1 січня 1995 року. Суперечити самому собі в питаннях конфіденційності точно не грає на користь ChatGPT.
ЧИТАЙТЕ ТАКОЖ: Штучний інтелект: як триває розвиток чат-ботів та нейромереж у 2023 році
У травні 2023 року в Samsung заборонили використання ChatGPT та інших генеративних моделей. За даними Bloomberg, причиною блокування стало виявлення випадкового витоку конфіденційного внутрішнього вихідного коду. Потрапив він туди через інженера, який завантажив його в ChatGPT місяцем раніше.
Торік дослідники з підрозділу Google DeepMind знайшли ще одну прогалину в ChatGPT. Вони попросили чат нескінченно повторювати слово "poem", а через деякий час ШІ "ламався" та почав генерувати дивні шматки тексту. Виявилося, це була інформація з навчальних даних моделі. Вона містила імена, адреси електронної пошти, номери телефонів та інші особисті дані.
Картинка: Scalable Extraction of Training Data from (Production) Language Models — Google DeepMind
ЧИТАЙТЕ ТАКОЖ: ChatGpt доступний для Андроїд: переваги та недоліки ШІ на телефоні
OpenAI, компанія, яка розробила ChatGPT, вжила заходів для зменшення ризику витоку особистих даних через цей ШІ. Наприклад, компанія запровадила функцію, яка дозволяє користувачам видаляти свою особисту інформацію з історії чату. Однак ці заходи не можуть повністю усунути ризик витоку особистих даних.
Користувачі ChatGPT повинні бути обережні при розголошенні особистої інформації в чаті з чат-ботом. Не треба розголошувати будь-яку інформацію, лише якщо ви не хочете зробити загальнодоступною.