Красные линии для ИИ не снимут угрозу бесконтрольного применения. Мнение
![Красные линии для ИИ не снимут угрозу бесконтрольного применения. Мнение]()
Инициатива создать красные линии для технологии искусственного интеллекта (ИИ) и некий глобальный орган, который будет это контролировать похожа на несбыточную идею. И этот шаг не снимет угроз бесконтрольного применения ИИ, считает IT-редакция.
23 сентября на Генассамблее ООН сообщили об открытом письме к лидерам государств с призывом установить ограничения для ИИ и подписать соответствующее соглашение к концу 2026 года. Под ним подписались более 200 экспертов и политиков, в том числе сооснователь OpenAI Войцех Заремба, экс-президенты Ирландии и Колумбии, а также бывший премьер-министр Италии.
«ИИ вскоре может значительно превзойти человеческие возможности и привести к эскалации таких рисков, как искусственно созданные пандемии, широкомасштабная дезинформация, масштабное манипулирование людьми», — говорится в письме.
С одной стороны, сама идея красных линий для ИИ — особенно запрет на саморепликацию и имитацию человека — кажется разумной мерой предосторожности. Участие авторитетных специалистов и привязка к Генассамблее ООН придают инициативе вес.
С другой стороны, ключевая проблема — в механизмах контроля. Создание некоего независимого глобального института с реальными полномочиями выглядит утопией в текущих геополитических условиях. История показывает, что международные соглашения в сфере безопасности часто нарушаются, а контролирующие органы сталкиваются с проблемами суверенитета.
Наиболее реалистичным представляется, что инициатива может стать основой для дискуссии, но вряд ли приведет к созданию действующего международного режима контроля к 2026 году. При этом нельзя забывать, что ИИ — это не какая самостоятельная сущность, а инструмент. И от развития человека будет зависеть то, какие угрозы может принести любая технология.

Инициатива создать красные линии для технологии искусственного интеллекта (ИИ) и некий глобальный орган, который будет это контролировать похожа на несбыточную идею. И этот шаг не снимет угроз бесконтрольного применения ИИ, считает IT-редакция.
23 сентября на Генассамблее ООН сообщили об открытом письме к лидерам государств с призывом установить ограничения для ИИ и подписать соответствующее соглашение к концу 2026 года. Под ним подписались более 200 экспертов и политиков, в том числе сооснователь OpenAI Войцех Заремба, экс-президенты Ирландии и Колумбии, а также бывший премьер-министр Италии.
«ИИ вскоре может значительно превзойти человеческие возможности и привести к эскалации таких рисков, как искусственно созданные пандемии, широкомасштабная дезинформация, масштабное манипулирование людьми», — говорится в письме.
С одной стороны, сама идея красных линий для ИИ — особенно запрет на саморепликацию и имитацию человека — кажется разумной мерой предосторожности. Участие авторитетных специалистов и привязка к Генассамблее ООН придают инициативе вес.
С другой стороны, ключевая проблема — в механизмах контроля. Создание некоего независимого глобального института с реальными полномочиями выглядит утопией в текущих геополитических условиях. История показывает, что международные соглашения в сфере безопасности часто нарушаются, а контролирующие органы сталкиваются с проблемами суверенитета.
Наиболее реалистичным представляется, что инициатива может стать основой для дискуссии, но вряд ли приведет к созданию действующего международного режима контроля к 2026 году. При этом нельзя забывать, что ИИ — это не какая самостоятельная сущность, а инструмент. И от развития человека будет зависеть то, какие угрозы может принести любая технология.

