В России разработали проект закона о регулировании искусственного интеллекта
Он предлагает классификацию систем по уровню риска, запретить системы с «неприемлемым уровнем риска», а также ввести обязательную маркировку контента и ответственность разработчиков за вред, причиненный нейросетями, сообщает РБК. Киберэксперт Владимир Ульянов объясняет, что законопроект должен определить степень разрешенного использования искусственного интеллекта в тех или иных сферах.
«Я полагаю, что речь тут идет не о классификации искусственного интеллекта или инструментов с использованием ИИ, а именно про определение систем по уровню их критичности. Можно предположить, что ИИ не должен использоваться в высоко критичных системах с непредсказуемыми действиями со стороны каких-то инструментов, которые используются ИИ, что может привести к недопустимым последствиям», - сказал Владимир Ульянов.