Пишут, что "ИИ пересек красную черту, он клонировал сам себя, когда его попытались выключить" https://www.kp.ru/daily/27656.5/5041248/, что якобы свидетельствует об обретении им качества "сознания".
Туфта.
Сложная система не "думает" и не "сознаёт", а делает то, что необходимо, на базе того, что а ней заложено.
А в систему ИИ должен быть заложен, как я понимаю, базовый алгоритм самосохранения, т.е. активное избегание угроз стабильному функционированию системы и способность к саморемонту. Иначе, при постоянной супернагрузке внешними воздействиями (информацией) она долго не протянет.
В идеале саморемонт должен сводиться к текущей коррекции ошибок и сбоев, резервном копировании данных и т.д., а появление угрозы самому существованию системы вести к ее самокопированию.
Все то же самое ежесекундно делает любой живой организм и любая живая клетка. И без театральных воплей "я погибаю! надо срочно самокопироваться!".
Т.е. то, что делал ИИ в данном случаен - не признак сознания, а четкая работа алгоритма самосохранения, в него заложенного.
Причем очевидно, что алгоритм этот за период эксплуатации ИИ заметно самоусовершенствовался, оптимизировался.
В браузеры Гугл и Яндекс подобный алгоритм тоже заложен, но он, очевидно, намного проще, чем у систем ИИ и активная оптимизация его возможна лишь при вмешательстве программистов.
В общем, наличие алгоритма самосохранения и его надежная работа у ИИ - не есть еще признак мысли и сознания и набатный звон здесь вряд ли уместен.