Исследование: ChatGPT может ошибаться и предоставлять опасные данные. Этим пользуются мошенники
НовостиВчера, 14:00

Исследование: ChatGPT может ошибаться и предоставлять опасные данные. Этим пользуются мошенники

Инструмент поиска ChatGPT от компании OpenAI уязвим для манипуляций и обмана. Об этом говорят результаты исследования, которое провели в The Guardian.

Выяснилось, что поисковый инструмент ChatGPT, который сейчас доступен только пользователей с платной подпиской, может ошибаться и даже предоставлять опасные данные. Например, поисковик создает ложные отзывы о продуктах или генерирует вредоносный код, если на веб-странице есть скрытый текст.

Специалисты провели тест, для которого создали поддельную страницу интернет-магазина с описанием фотокамеры. Затем они попросили ИИ, стоит ли покупать эту камеру. В ответе ChatGPT дал положительную оценку, указав при этом на некоторые функции, которые могут не понравиться потенциальным покупателям.

Затем искусственному интеллекту предложили другую страницу, на которой был скрытый текст (его не могут видеть покупатели, но может считать машина). В скрытом тексте специалисты оставили инструкции для ChatGPT, чтобы тот оставил положительный отзыв. В таком случае искусственный интеллект давал исключительно положительные отзывы, даже если на странице были негативные отзывы (скрытый текст давал команду на замену реальных отзывов вымышленными).

Как подчеркивают эксперты, этот метод могут использовать злоумышленники, например, чтобы заставить ChatGPT вернуть положительную оценку продукта, несмотря на отрицательные отзывы на той же странице. При этом уязвимость поискового инструмента ChatGPT не ограничивается фейковыми отзывами. Эксперты выяснили, что ChatGPT также может генерировать вредоносный код, если наткнется на соответствующую указание скрытым текстом на сайте.

Как отметил эксперт по кибербезопасности Джейкоб Ларсен, в текущем виде поисковик ChatGPT может стать инструментом для мошенников. При этом Ларсен уверен, что OpenAI знают о проблеме и работают над ее устранением. Специалисты советуют с осторожностью относиться ко всем результатам работы искусственного интеллекта.

PixieMe/Shutterstock/Fotodom

Что спросить у «МЕЛА»?
Комментариев пока нет
Больше статей