В обновленной «Политике запрещенного использования генеративного ИИ» появились разъяснения относительно частных случаев применения нейросетей. В частности, компания запрещает использовать их для создания заведомо ложных, вводящих в заблуждение данных, а также действий, приводящим к противоправным или злонамеренным действиям. Среди них:
Распространение информации о создании запрещенных веществ.
Создание контента, связанного с сексуальным насилием или эксплуатацией детей.
Контент, поощряющий асоциальное и противозаконное поведение.
Пропаганда экстремизма и терроризма.
Google запрещает применение чат-бота для генерации спама, фейков, мошеннических схем и других данных, которые могут ввести пользователей в заблуждение.
Чтобы нейросети подчинялись своему основному алгоритму, пользователям запрещено преодолевать барьеры и системы безопасности системы, а также совершать действия, которые противоречат правилам платформы.
Особо подробно Google прописал все, что связано с фейками и введением в заблуждение. В частности, он регулирует особо деликатные сферы (например, медицина и финансы), поскольку это может навредить здоровью населения и финансовому благополучию страны.
Компания запрещает применение чат-ботов для порнографии или с целью сексуального удовлетворения. Однако ограничение не касается образовательных, художественных или документальных материалов.
Напоминаем, что на прошлой неделе стало известно, что новая версия чат-бота GPT4 смогла обойти капчу и обмануть сотрудника на фрилансе. Это вызвало большой резонанс и панику среди пользователей, ведь если система может обойти ограничение уже на данном этапе, что может нас ждать дальше?