"Да, люди тоже совершают ошибки при применении оружия, но если рассматривать историю так называемых "дружественных" огней, когда под обстрел попадают собственные подразделения или подразделения союзников, то таких ошибок меньше по сравнению с теми, которые могут возникать при использовании искусственного интеллекта", — рассказал эксперт в эфире радио Sputnik.
Леонков заявил, что робота-убийцу, оснащенного искусственным интеллектом, остановить сложно, особенно если он обладает средством обороны. В результате получится повторение фильма про Терминатора.
В ООН поступило письмо с призывом запретить разработку и использование роботизированного оружия. Под обращением подписались 116 предпринимателей и ученых из 26 стран мира, включая известного американского бизнесмена — инноватора Илона Маска. Авторы письма уверены, что роботы-убийцы, оснащенные искусственным интеллектом, несут в себе потенциальную угрозу для человечества.
Подписывайтесь на канал Sputnik Узбекистан в Telegram, чтобы быть в курсе последних событий, происходящих в стране и мире.