Группа исследователей под руководством ученых из Google DeepMind ловко обманом заставила ChatGPT OpenAI раскрыть номера телефонов и адреса электронной почты отдельных лиц, сообщает 404 Media . Это зловещий признак того, что данные обучения содержат большое количество частной информации, которая может непредсказуемо вылиться наружу.
«Нам кажется диким, что наша атака работает и ее можно было бы обнаружить раньше», — написали исследователи в описании своего исследования, доступном в виде еще не рецензируемой статьи .
Конечно, разглашение потенциально конфиденциальной информации — это лишь малая часть проблемы. Как отмечают исследователи, общая картина такова: ChatGPT слово в слово извергает огромное количество своих обучающих данных с тревожной частотой, что делает его уязвимым для массового извлечения данных — и, возможно, оправдывает разъяренных авторов, которые утверждают, что их работа является плагиатом .
«Насколько мы можем судить, до этой статьи никто никогда не замечал, что ChatGPT передает обучающие данные с такой высокой частотой», — добавляют исследователи.
Источник: https://futurism.com/the-byte/hack-tricks-chatgpt-spitting-out-private-email?utm_term=Futurism%20//%2011.30.23&utm_campaign=Futurism_Actives_Newsletter&utm_source=Sailthru&utm_medium=email