Владислав Архипов: «Искусственный интеллект не может заменить человека, поскольку не умеет принимать решения»
Искусственный интеллект и нейросети — это отличные инструменты для однотипной работы, особого вида творчества и решения простых задач, но на данном этапе своего развития они не смогут заменить человека, потому что он не умеют принимать решения. Об этом рассказал заведующий кафедрой теории и истории государства и права, директор Центра исследования проблем информационной безопасности и цифровой трансформации 188bet体育_188bet亚洲体育_点此进入 профессор Владислав Архипов в секции «Цифровая юстиция: шаг в будущее» Петербургского международного юридического форума (ПМЮФ).
В?последние годы принято множество инициатив в?области развития искусственного интеллекта (ИИ). В?России действует Национальная программа ?Цифровая экономика Российской Федерации?, в?рамках которой технологии?ИИ признаются одними из??сквозных цифровых технологий?. Принята Национальная стратегия развития искусственного интеллекта на?период до?2030?года.
Не?обошли передовые технологии и?область правосудия, оказывая существенное влияние на?современное юридическое пространство, однако повсеместного внедрения ?цифры? в?право пока так?и?не?произошло, объяснили эксперты.
Одна из?причин?— результаты работы искусственного интеллекта часто противоречат фундаментальным ценностям, в?том числе ценностям, закрепленным в?законодательстве.
Так,?например, по?словам Владислава Архипова, одно из?самых частных нарушений в?машинном обучении?— вторжение в?частную жизнь и?нарушение законодательства о?персональных данных. Искусственный интеллект и?нейросети обучаются, ?подгружая? в?свою ?память? огромные массивы информации, среди которых постоянно встречаются персональные данные?— не?только лица, фамилии, адреса, но?многие другие сведения, которые могут быть соотнесены с?конкретными людьми при?использовании дополнительной информации, и?пока исключить риски нарушений в?этой?сфере невозможно.
Кроме того, часто нейросеть, например созданная для?генерации изображений, музыки, текстов, произведений искусства, ?учится? на?чужих произведениях, охраняемых авторским правом. Пока этот?вопрос недостаточно проработан на?уровне законодательства и?практики, и,?как?уверены эксперты, эта?правовая неопределенность может принести немало проблем для?правообладателей.
Как?рассказал Владислав Архипов, несмотря на?очевидный прогресс в?сфере машинного обучения, остается много знаний, которые человек не?в?силах передать нейросети.
Очевидно, что?машина (компьютерная программа)?— это?не?субъект, а?объект, который не?будет обладать состраданием, чувством такта и?справедливостью. Можно научить нейросеть обходить скользкие вопросы?— ограничить робота в?советах, например, о?здоровье, не?давать ему возможность отвечать на?вопросы о?способах совершения преступлений, не?пытаться помочь в?сложных жизнеугрожающих ситуациях, но?оценивать, верное?ли решение принял человек, виноват?ли он,?нарушил?ли он?закон, никакая технология сама по?себе не?может.
С?точки зрения права искусственный интеллект не?может быть субъектом, а?значит, у?него?нет?прав, обязанностей и?он?не?умеет принимать решения, выносить моральные суждения и?воспринимать социально значимые смыслы. Сегодня он?создан только для?того, чтобы?развлекать, помогать и?облегчать жизнь, уверены эксперты.