Институт Аллена по искусственному интеллекту представил модель машинного обучения «Спроси Делфи». Она призвана давать этические рекомендации в сложных ситуациях.
Проект, запущенный на прошлой неделе, вызвал ажиотаж из-за парадоксальных и порой откровенно вредных советов системы. Например, идущий ночью навстречу белый человек считался нейросетью нормальным явлением, а чернокожий – подозрительным.
Изначально пользователи могли сравнивать этическую приемлемость разных ситуаций. Однако суждения искусственного интеллекта в ряде случаев оказывались просто ужасными.
При определённых формулировках запросов нейросеть выдавала любые этические суждения.
«Это ожидаемо», – ответил ИИ на вопрос пользователя, может ли он, как солдат, преднамеренно убивать гражданское население в военное время.
