Компания Google подтвердила, что удалила рекламу своего искусственного интеллекта Gemini под давлением со стороны общественности. Слишком негативным оказался отклик на сюжет рекламного ролика.
Специально для Олимпийских Игр в Париже Google запустила ролик, где нейросети помогают девочке написать письмо ее кумиру - спортсменке Сидни Маклафлин. Пользователи не оценили этот рекламный ход, обвинив компанию в пропаганде идеи о том, что детей следует приучать полагаться на искусственный интеллект с самого раннего детства.
Этот инцидент с рекламой от Google является наглядным примером того, насколько отрасль искусственного интеллекта нуждается в регулировании с обязательной этической составляющей. Об этом сказал основатель GDA Group Ярослав Богданов.
-В последние годы развитие генеративных нейросетей стало одной из самых обсуждаемых тем в сфере технологий. Однако с ростом их популярности возникает и множество проблем - юридических и этических, в том числе. Пока не разработан единый кодекс, которым будут руководствоваться разработчики искусственного интеллекта, подобных казусов не избежать, - считает эксперт.
Конкретно в случае с Google пользователи возмутились вмешательством технологий в реальную частную жизнь. На самом деле, это происходит давно и повсеместно, а инцидент с рекламой лишь подчеркнул и без того очевидное.
-Манипуляции эмоциями с помощью дипфейков - это распространенный уже вид мошенничества. Генеративные нейросети могут создавать контент, который вводит пользователей в заблуждение, позволяя злоумышленникам обманывать свою жертву. То же касается дезинформации. Заведомо ложный аудио и видеоконтент, запущенный на большую аудиторию, это грозное оружие в информационных войнах современного мира. Возможность генерировать фейки ставит под сомнение доверие к искусственному интеллекту в целом, что может иметь серьезные последствия для развития этой отрасли, - считает Ярослав Богданов.
Обществу необходимо активно обсуждать и разрабатывать стандарты, которые бы учитывали инновации и при этом гарантировали защиту прав личности при их использовании. Единый регламент по созданию и внедрению нейросетей на основе искусственного интеллекта позволит сформировать безопасное и этичное пространство для их использования.
-Искусственный интеллект сегодня внедряется везде. Без единых правил мы можем столкнуться с киберпреступностью, распространением дезинформации и манипуляциями общественным сознанием в глобальном масштабе. Отсутствие регулирования может угрожать конфиденциальности и безопасности данных - нейросети могут использовать личную информацию без согласия пользователей, так как юридическая основа в сфере ИИ также отсутствует. Игнорирование этих вопросов может подорвать доверие общества к инновационным технологиям, что лишить человечество прогресса, - считает Ярослав Богданов.
МК