Этика искусственного интеллекта на примерах ЕС и Китая

ID30959

Открытая лекция Алексея Гринбаума, научного сотрудника CEA-Saclay

Домашний робот может человека покалечить, чатбот — оскорбить. Автономные системы становятся участниками человеческих конфликтов, иногда даже сами их провоцируют. 18 марта 2018 года беспилотный автомобиль компании «Убер» совершил смертельный наезд на женщину, переходившую дорогу в одном городе штата Аризона. Впервые пешеход принял смерть от алгоритма — кто за это несет ответственность? 
На этот вопрос необходимо найти ответ, потому что технологии в современном мире распространяются все быстрее и новых инцидентов не избежать. Но было бы иллюзией полагать, что такой ответ может быть либо чисто юридическим, либо чисто техническим. Обеспечить полное отсутствие конфликтов во взаимодействии человека и машины, создать некую «добрую машину» нельзя. Однако общество требует именно этого – мы убедимся в существовании подобных требований на примере китайских и европейских политических документов в области искусственного интеллекта.
Какова альтернатива? Как технологии и общество меняются и меняют требования друг к другу? Какие решения программисты могут реализовать в коде? Об этом пойдет речь в заключительной части лекции.
Дополнительная информация о лекторе:

Ведущие

Спикеры

Начисление баллов за посещение мероприятия

1 балл

Стратегическое мышление