В России задумались о запрете искусственного интеллекта с «неприемлемым уровнем риска»
Депутаты, эксперты и участники рынка нейросетей подготовили проект закона «О регулировании систем искусственного интеллекта (ИИ) в России». Он предполагает маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями, сообщает РБК.
Согласно документу, предлагается ввести классификацию систем ИИ по уровню потенциального риска – от неприемлемого до минимального. В частности, инициатива предполагает запрет на разработку и эксплуатацию в РФ систем ИИ с неприемлемым уровнем риска, который может угрожать безопасности личности, общества и государства, нарушать основные права и свободы человека.
Для систем с высоким уровнем риска предлагается ввести обязательную государственную регистрацию и сертификацию, а системы с ограниченным уровнем риска могут регулироваться системой внутреннего контроля качества, а также добровольной сертификацией.
Авторы инициативы отметили, что маркировка ИИ должна быть «явной, недвусмысленной и легко идентифицируемой». В документе также закрепляется понятие искусственного интеллекта, систем и технологий ИИ.
Как отметил изданию зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов, единого законопроекта, который будет регулировать всю систему ИИ, ждать в этом году не стоит. Он добавил, что в ближайшие месяцы появится несколько инициатив, которые будут «точечно регулировать отраслевые запросы, вводить пилотные зоны или пилотные режимы».
фото: profile.ru
