Советник Риши Сунака: у мира есть два года, чтобы защитить людей от ИИ

Фото: 123rf.com
Фото: 123rf.com

На прошлой неделе некоммерческая организация «Центр безопасности искусственного интеллекта» (Center for AI Safety) опубликовала заявление, в котором предупреждает, что ИИ может привести к полному исчезновению человечества. Такие опасения есть у десятков ученых, журналистов, предпринимателей и программистов (в том числе у главы компании OpenAI Сэма Олтмена). На этой неделе с подобным заявлением выступил также советник Риши Сунака по вопросам искусственного интеллекта Мэтт Клиффорд.

Клиффорд, который помогает премьер-министру создать правительственную целевую группу по ИИ, предупреждает: в течение двух лет системы на основе искусственного интеллекта станут настолько мощными, что превратятся в отдельный разумный вид, превосходящий человека по способностям. Это грозит тем, что ИИ можно будет использовать для проведения массированных кибератак и разработки химического и биологического оружия. По словам Клиффорда, до полного вымирания человечества вряд ли дойдет, но уничтожить большое количество людей новой технологии будет под силу. В то же время Клиффорд утверждает, что, если научиться контролировать искусственный интеллект, его можно использовать во благо — для лечения сложных болезней, улучшения экономики и сокращения углеродных выбросов. 

Сейчас правительства нескольких стран пытаются прийти к консенсусу и понять, как контролировать системы ИИ, не мешая при этом технологическому прогрессу, пишет The Telegraph. Риши Сунак намерен предлагать Великобританию в качестве потенциального глобального регулятора, однако пока в этом вопросе больше всех продвинулся Брюссель — Бельгия собирается принять закон, разделяющий виды технологий по уровню рисков.

Вам может быть интересно

Все актуальные новости недели одним письмом

Подписывайтесь на нашу рассылку