Перед президентом по Искиному.
Выступление И. Ашманова на СПЧ по проблемам вокруг ИИ
10.12.025 состоялось заседание Совета по развитию гражданского общества и правам человека. В частности, выступил И. С. Ашманов по поводу проблем, связанных с ИИ. В. В. Путин отреагировал.
В.Путин: Игорь Станиславович Ашманов, пожалуйста.
И.Ашманов: Добрый вечер, Владимир Владимирович!
Сначала хочу вспомнить наши разговоры в прошлом году про мошенников.
Большое Вам спасибо за эти поручения, которые Вы упомянули, февральские. Там действительно начались подвижки. Говорят, что падает количество звонков или, по крайней мере, не растёт, и принят, сейчас будет принят уже второй пакет поправок. То есть началось движение в том числе у цифрового бизнеса.
В этот раз хотелось бы поговорить о другой проблеме цифровой, а именно о таком галопирующем, чрезвычайно быстром внедрении искусственного интеллекта в первую очередь в социальную сферу и в государственное управление.
Я хотел бы вспомнить Ваши слова недавние, когда на конференции по искусственному интеллекту Вы сказали о том, что ведь если школьники будут непрерывно спрашивать искусственный интеллект о своих заданиях и так далее, они просто перестанут думать и просто не научатся это делать.
Это довольно очевидные вещи. Казалось бы, это просто простой здравый смысл. Более того, это сейчас происходит уже массово. То есть когда разговариваешь с учителями, с родительским сообществом, они говорят, что происходит массовое, обвальное выхолащивание образования: школьники и студенты получают задания, отдают их искусственному интеллекту и потом, не читая, сдают обратно, и у них возникает идея, что, в общем, знать необязательно, надо сдать. При этом рушится авторитет преподавателя, для них авторитетом сейчас становится искусственный интеллект. Они прямо говорят преподавателю: мне ИИ сказал вот так, а он умнее Вас, поэтому Вы просто ошибаетесь.
И при этом, поскольку наши люди любят всё фирменное, они, как правило, используют западные системы, при этом часто взломанные, то есть те, которые не имеют ограничений по плохим и вредным советам. И такие советы эти системы дают, вплоть до побуждения к суициду и так далее.
В вузе тоже подавляющее количество работ сейчас генерируется автоматически. Преподаватели вынуждены теперь снова перейти на опрос вживую. Очень часто человек приносит диплом и не может объяснить основные термины в этом дипломе. Пустые работы, компилятивные. Профессора говорят, что сейчас они не знают, кого они выпускают, знают эти люди предмет или нет. А через год, два, три эти люди попадут в промышленность, в оборонку и так далее и будут там тоже, возможно, имитировать работу.
Только что я был в храме Христа Спасителя, там выступал Патриарх, и он очень много сказал, прямо минут 10 говорил, именно об этих проблемах с образованием. Там была встреча с преподавателями, и, собственно, Министр просвещения Кравцов вслед за ним повторил примерно то же самое. Да, есть проблема, и действительно происходит нехорошая метаморфоза образования, причём на нижнем уровне.
Вы, конечно, слышите о том, что искусственный интеллект надо внедрять как можно быстрее, и он, возможно, решит все наши проблемы. Я сам разработчик искусственного интеллекта последние десятки лет, и это верно только отчасти. Нам, конечно, ни в коем случае нельзя отстать в обороне, в промышленности. Искусственный интеллект чрезвычайно важен для наведения на цель, для контрбатарейной борьбы, в сельском хозяйстве для анализа посевов или контроля качества продукции, для транспорта и так далее. Но в социальной сфере и в госуправлении, кроме вот этой метаморфозы в образовании, сейчас назрели довольно серьёзные проблемы, такие предвестники.
Первое – это, конечно, утечки. То есть сейчас самые-самые продвинутые менеджеры госкорпораций, госорганов, крупных корпораций, крупных компаний в области критической инфраструктуры поручают своим помощникам с помощью западных, в основном западных, облачных сервисов организовывать свою коммуникацию и переписку в самых разных мессенджерах, в электронной почте. И вся, в том числе дээспэшная, переписка улетает противнику, а это, собственно, наш противник. Потому что это облачные сервисы в основном американские. А наши люди хотят самое лучшее и фирменное, а именно американское.
Второе – это, конечно, попытки замены чиновников на роботов. Очень многие чиновники сейчас с удовольствием выставляют перед собой чат-боты. Это нужно, чтобы досужее население, противное, склочное и так далее, до них не добиралось, а робот их отбивал. На самом деле, конечно, чат-боты не решают даже мелких проблем. Это фактически просто способ отогнать граждан, такой способ снятия ответственности.
Вообще, основной риск искусственного интеллекта – это снятие ответственности с ответственного лица, это решил искусственный интеллект. Это прямо мощная тенденция. И это всё приводит к такому наиболее грозному риску, как я считаю, – это возникновение нового вида такой цифровой власти, которую никто никому не делегировал ни выборами, ни Вашим распоряжением, когда просто люди получают власть по факту доступа к данным граждан и возможности управлять их судьбами. Фактически перетекает власть от государства, от силовиков, промышленников, энергетиков к цифровикам. И кажется, что скорость внедрения и перетекания власти такова, что мы приближаемся к какой-то точке невозврата.
Хороший пример – это пожар в Южной Корее, где в результате быстрого внедрения… Они как бы впереди нас оказались. Они всё перевели на безбумажный оборот, и прямо на момент в результате пожара у них сгорели сотни госуслуг, сотни тысяч карьерных записей госслужащих и так далее, причём и бэкапы все сгорели, то есть резервное копирование. И они не могут восстановить. Они даже просят сотрудников приносить ноутбуки, чтобы найти следы этих данных.
Есть мнение, что такие риски как-то учтены в Национальной стратегии искусственного интеллекта. На самом деле Стратегия не может никого принудить на земле, там нет санкций, это общее направление развития.
Такое же примерно заблуждение есть насчёт этики искусственного интеллекта. Есть у нас Кодекс этики, я сам принимал участие в его написании. Он написан четыре года назад, подписало больше тысячи компаний. К сожалению, никто не исполняет. Это такая индульгенция: я подписал, значит я этичный и дальше могу творить всё то же самое. Самый простой пример. Там есть требование маркировать искусственный интеллект при общении – никто этого не делает, потому что люди же будут бросать трубку.
Нам нужен именно закон, дающий сильный сигнал обществу о том, что можно и что нельзя. Это не пожелание, потому что при комитете Андрея Александровича Клишаса (это Комитет по конституционному законодательству и госстроительству) этой весной мы создали рабочую группу, туда вошли специалисты по искусственному интеллекту, информационной безопасности, известные юристы. Руководит этой группой известный вам Владимир Игоревич Кожин.
Мы с весны пытаемся создать такой законопроект, он на самом деле практически готов. Это проект о безопасном использовании искусственного интеллекта в социальной сфере и госуправлении. Естественно, там работают специалисты из СПЧ. Основная мысль законопроекта – это то, что нужно стимулировать развитие искусственного интеллекта в промышленности, в обороне и так далее, но в сфере публичной политики, в госуправлении, в социальной сфере, в образовании использование искусственного интеллекта должно быть серьёзно отрегулировано. Примерно как с ацетоном или метанолом: его можно использовать в промышленности, но нельзя нюхать или добавлять про продукцию, в продукты питания. Нельзя заменять учителей и так далее.
У меня просьба, если можно, дать поручение парламенту, СПЧ, Администрации создать какую-то межведомственную рабочую группу, чтобы проанализировать этот практически готовый законопроект и принять его как можно быстрее.
Спасибо.
Кравцова, эту минобразину, надо гнать из минобраза, и все проблемы с Искиным рассосутся. Почти как в Корее.
No comments:
Post a Comment