Бывший сотрудник Google Джеффри Хинтон, один из первых и главных исследователей ИИ в компании, поделился своими опасениями насчет развития нейросетей. По его словам, это послужило причиной его ухода из компании. Он сожалеет о своей работе, но утешается тем, что вместо него «ее бы выполнил кто-нибудь другой».
Главная задача Хинтона сейчас — это предупредить людей о возможных рисках и опасностях, которые несет за собой технологический скачок в области ИИ.
Рынок труда
Уже сейчас нейросети способны подвинуть многих живых сотрудников, создав вакуум сразу в нескольких отраслях. Резкое снижение рабочих мест — это практически неизбежный сценарий развития нейросетей, и как с ним бороться — совершенно не ясно.
Дипфейки
Другой серьезный вопрос — это распространение фейков. За последний год появилось большое количество инструментов для генерации контента, что уже привело к обилию «мусорных» сайтов, зарабатывающих на рекламе. Другое дело, что до сих пор не существует ни одного адекватного инструмента, способного распознавать дипфейки, искусственно сгенерированный текст или картинку. А последние развиваются семимильными шагами.
Оружие
Последний аспект — это включение ИИ в гонку вооружений. По словам Хинтона новые технологии могут оказать непредсказуемый и опасный эффект на военные действия.
Любопытно, что ранее с подобным заявлением выступал Илон Маск. Он сказал, что его пугает столь стремительное развитие чат-ботов, и даже предложил OpenAI взять паузу на полгода в развитии своих технологий. Правда, выяснилось, что это время требуется Илону для развития своей нейросети.