Вы здесь

Инцидент с рекламой Gemini от Google доказал проблему регулирования ИИ

Компания Google подтвердила, что удалила рекламу своего искусственного интеллекта Gemini под давлением со стороны общественности. Слишком негативным оказался отклик на сюжет рекламного ролика.

Специально для Олимпийских Игр в Париже Google запустила ролик, где нейросети помогают девочке написать письмо ее кумиру - спортсменке Сидни Маклафлин. Пользователи не оценили этот рекламный ход, обвинив компанию в пропаганде идеи о том, что детей следует приучать полагаться на искусственный интеллект с самого раннего детства.

Этот инцидент с рекламой от Google является наглядным примером того, насколько отрасль искусственного интеллекта нуждается в регулировании с обязательной этической составляющей. Об этом сказал основатель GDA Group Ярослав Богданов.

Ярослав Богданов

-В последние годы развитие генеративных нейросетей стало одной из самых обсуждаемых тем в сфере технологий. Однако с ростом их популярности возникает и множество проблем - юридических и этических, в том числе. Пока не разработан единый кодекс, которым будут руководствоваться разработчики искусственного интеллекта, подобных казусов не избежать, - считает эксперт.

Конкретно в случае с Google пользователи возмутились вмешательством технологий в реальную частную жизнь. На самом деле, это происходит давно и повсеместно, а инцидент с рекламой лишь подчеркнул и без того очевидное.

-Манипуляции эмоциями с помощью дипфейков - это распространенный уже вид мошенничества. Генеративные нейросети могут создавать контент, который вводит пользователей в заблуждение, позволяя злоумышленникам обманывать свою жертву. То же касается дезинформации. Заведомо ложный аудио и видеоконтент, запущенный на большую аудиторию, это грозное оружие в информационных войнах современного мира. Возможность генерировать фейки ставит под сомнение доверие к искусственному интеллекту в целом, что может иметь серьезные последствия для развития этой отрасли, - считает Ярослав Богданов.

Обществу необходимо активно обсуждать и разрабатывать стандарты, которые бы учитывали инновации и при этом гарантировали защиту прав личности при их использовании. Единый регламент по созданию и внедрению нейросетей на основе искусственного интеллекта позволит сформировать безопасное и этичное пространство для их использования.

-Искусственный интеллект сегодня внедряется везде. Без единых правил мы можем столкнуться с киберпреступностью, распространением дезинформации и манипуляциями общественным сознанием в глобальном масштабе. Отсутствие регулирования может угрожать конфиденциальности и безопасности данных - нейросети могут использовать личную информацию без согласия пользователей, так как юридическая основа в сфере ИИ также отсутствует. Игнорирование этих вопросов может подорвать доверие общества к инновационным технологиям, что лишить человечество прогресса, - считает Ярослав Богданов.

вт, 08/06/2024 - 14:52 - Автор: Редакция_МК

Источник

МК

Раздел

Наука