Американский предприниматель Илон Маск анонсировал новую версию чат-бота Grok принадлежащей ему компании xAI и попал под шквал критики из-за слишком реалистичных изображений. Эксперты и пользователи интернетом остались недовольны нарушением авторских прав при использовании кадров, а также контентом, где популярные персонажи представлены в нехарактерных им образах. Так, издание Южный Федеральный пишет, что многих негативно впечатлил вооруженный пистолетами Микки Маус на фоне кровавой расправы.
Критики обвинили Маска в том, что он переступил нормы права и авторского контента, тот в свою очередь назвал негатив в адрес новой версии чат-бота Grok политическими происками против его соцсети Х. Сам он считает, что новое творение его специалистов - "это самый забавный искусственный интеллект в мире".
Заочную полемику Маска и критикующих его экспертов оценил основатель GDA Group Ярослав Богданов. По его мнению, бизнесмен появлением столь реалистичного продукта привлек внимание к наиболее острым вопросам в сфере искусственного интеллекта [ИИ]. Он напомнил, что в 2023 году Маск был одним из подписантов публичного обращения, где прозвучал призыв остановить разработки нейросетей, пока не будут созданы правила работы с ИИ. Письмо было проигнорировано, и Маск занялся тем же что и все - продолжил работу в освоении генерации нейросетей в условиях отсутствия регуляции.
- На ситуацию нужно смотреть шире - проблема не в Илоне Маске, не в Grok и не в его контенте. Проблема - в отсутствии глобальной кибербезопасности, что и стало первопричиной заполонивших Сеть фейков. На самом же деле критикам предпринимателя нечего поставить в вину. Раз нет юридически закрепленных норм и правил, значит и нарушено ничего не было, - сказал Ярослав Богданов.
По его мнению, нейросети - это палка о двух концах. С одной стороны они снимают с человека много рутинных задач, способствуют генерации новых идей. С другой стороны - их развитие может привести к умственной деградации человека и, разумеется, преступная статистика в области кибериндустрии начнет расти.
- Прежде чем бесконтрольно и бездумно осваивать искусственный интеллект, необходимо заложить ландшафт безопасности своей деятельности. По аналогии с протоколами, которыми руководствуются работники опасных производств, где есть четкие алгоритмы поведения. В противном случае фейки с картинками с улучшенной графикой покажутся детской шалостью по сравнению с теми преступлениями, которые будут возможны, - предупредил Ярослав Богданов.
МК