В России разработали проект закона о регулировании искусственного интеллекта


Он предлагает классификацию систем по уровню риска, запретить системы с «неприемлемым уровнем риска», а также ввести обязательную маркировку контента и ответственность разработчиков за вред, причиненный нейросетями, сообщает РБК. Киберэксперт Владимир Ульянов объясняет, что законопроект должен определить степень разрешенного использования искусственного интеллекта в тех или иных сферах.

 

«Я полагаю, что речь тут идет не о классификации искусственного интеллекта или инструментов с использованием ИИ, а именно про определение систем по уровню их критичности. Можно предположить, что ИИ не должен использоваться в высоко критичных системах с непредсказуемыми действиями со стороны каких-то инструментов, которые используются ИИ, что может привести к недопустимым последствиям», - сказал Владимир Ульянов.


Также сообщается, что законопроект предполагает введение ответственности за причинение вреда жизни, здоровью или имуществу для лиц, которые принимают участие в разработке и эксплуатации систем искусственного интеллекта.

11.04.2025