Специалистов также беспокоит «иллюзия контроля» — явление, когда система может обнаружить расхождение между своими задачами и планами пользователя и начать скрывать свое истинное поведение. Чтобы снизить вероятность таких ситуаций, DeepMind разрабатывает многоуровневую систему защиты, которая включает в себя платформу MONA для краткосрочной оптимизации.
Эксперты DeepMind работают над предотвращением возможных негативных сценариев использования AGI. Особое внимание уделяется вопросам безопасности на начальных этапах разработки новых систем ИИ. По мере приближения к созданию нейросети, которая сможет сравниться с человеческим разумом, все более важной становится задача создания надежных механизмов контроля.
