Британська влада попереджає про ризики використання чат-ботів, керованих штучним інтелектом, стверджуючи, що їх можна обманом змусити виконувати шкідливі завдання.
Про це заявив Національний центр кібербезпеки Великої Британії (NCSC), повідомляє Reuters.
У двох своїх публікаціях відомство зазначає, що експерти ще не розібралися з потенційними проблемами безпеки, пов’язаними з алгоритмами, які можуть генерувати взаємодію, схожу на людську – так званими великими мовними моделями (LLM).
NCSC зазначає, що використання інструментів на основі штучного інтелекту, зокрема в роботі з обслуговування клієнтів та дзвінками з продажу, може нести ризики, особливо якщо такі моделі будуть підключені до інших елементів бізнес-процесів.
Науковці та дослідники неодноразово знаходили способи маніпулювати чат-ботами, даючи їм несанкціоновані команди або обманюючи їх, щоб вони обходили вбудовані в них захисні механізми.
Наприклад, чат-бот на базі штучного інтелекту, який використовує банк, можна обманом змусити здійснити несанкціоновану транзакцію, якщо хакер правильно структурує свій запит.
Вплив штучного інтелекту на безпеку все ще перебуває в центрі уваги урядів країн по всьому світу. Зокрема, у США та Канаді вже фіксували використання технології LLM хакерами.