Поддержать команду Зеркала
Беларусы на войне
  1. Кремль хочет заставить Трампа отказаться от дедлайна по прекращению огня: какую риторику использует и чем шантажирует
  2. СК: Упавший в Минске беспилотник был начинен тротилом и большим количеством поражающих элементов. Опубликовано видео падения дрона
  3. Подтверждение словам Слюнькина двухлетней давности. Послы Беларуси в других странах сделали совместное фото — вот сколько там женщин
  4. «Переломный момент для Европы». Офис Тихановской предложил США провести круглый стол с Лукашенко
  5. Что это было? Четыре версии того, как упавший во дворе беспилотник мог попасть в Минск
  6. «Все проснулись, ночь вышла ужасной». Во Фрунзенском районе Минска в дом врезался беспилотник
  7. Гомельские милиционеры случайно добавили «экстремиста» в свой внутренний чат — что он там увидел
  8. Если вы не можете выполнить эти простые упражнения, насторожитесь — вероятно, стоит провериться у врача. Объясняем, что и как сделать
  9. «Гранаты откидывал назад в милицию». Беларус четыре года прятался от силовиков, попался, но смог покинуть страну — вот его история
  10. Цены вернулись к 2015 году. Что происходит на рынке недвижимости в Минске
  11. «Полностью поднимайте все материалы». Глава МВД поручил пересмотреть и ужесточить часть решений о нарушениях ПДД — о чем речь
  12. Огласка сработала. Большой театр Беларуси не поедет на гастроли в оккупированный Крым
  13. Почти 1,8 тысячи упавших деревьев, 600 частных домов без света, затопленный холл отеля — последствия непогоды в Минске и области
  14. «Стараемся поменьше упоминать 2020 год». Чемоданова «категорически» запретила беларусам обсуждать на кухне определенную информацию
  15. Как «ударный дрон» смог долететь до столицы и почему военные не сбили его раньше? Спросили у экспертов
  16. Мощнейшее землетрясение у берегов Камчатки вызвало цунами: эвакуации в Японии, на Гавайях и по всему Тихоокеанскому региону


Первый глобальный саммит, посвященный безопасному использованию искусственного интеллекта, стартовал в Британии. В течение двух дней технологические гиганты, эксперты и политики будут обсуждать основы регулирования и безопасного использования технологий искусственного интеллекта, пишет Русская служба Би-би-си.

Илон Маск в 2022 году. Фото: U.S. Air Force photo by Trevor cokley / Википедия
Илон Маск. Фото: U.S. Air Force photo by Trevor cokley / Википедия

Первый саммит такого рода проходит в Блетчли-парке в графстве Бакингемшир, где в годы Второй мировой войны размещался центр дешифровки. Именно тут командой Алана Тьюринга была раскрыта тайна кода «Энигма», который использовали немецкие шифровальные машины.

По случайному совпадению именно в первый день работы саммита один из старейших словарей английского языка Collins признал AI — аббревиатура, обозначающая «искусственный интеллект», — словом 2023 года.

По сообщению Collins, употребление этого слова по сравнению с прошлым годом выросло в четыре раза.

«Мы знаем, что на ИИ в этом году был большой акцент в том смысле, что он развивался и быстро стал вездесущим, будучи встроенным в наши жизни в имейлы, стриминги и другие повседневные технологии, которые некогда казались футуристическими», — сказал директор издательства, выпускающего словарь.

В первый день работы саммита было подписано «первое в мире соглашение» о том, как управлять наиболее рискованными формами искусственного интеллекта.

Основное внимание в нем уделено так называемому «передовому ИИ» (frontier AI) — это, в понимании участников саммита, высокоразвитые формы этой технологии с пока неизвестными возможностями.

Соглашение подписали также США, ЕС и Китай.

В саммите также принял участие Илон Маск, владелец компаний Tesla, X и созданной минувшим летом x.Al — компании, занимающейся вопросами искусственного интеллекта. Накануне встречи он вновь выступил с предупреждением, что ИИ может привести к вымиранию человечества.

Правда, другие участники саммита высказались в более спокойном духе: по их мнению, следует воздержаться от спекуляций на тему маловероятных угроз в будущем, а вместо этого сосредоточить внимание на потенциальных рисках, которые искусственный интеллект несет уже сегодня, — например, угрозы некоторым профессиям или предвзятость в тех или иных вопросах, которую ИИ вырабатывает в результате своего обучения.

На конференции также прозвучало заранее записанное заявление британского короля Карла III, в котором он назвал развитие передового ИИ «не менее важным, чем открытие электричества».

Правительство Великобритании заявило, что в так называемой декларации Блетчли, подписанной участниками саммита, 28 стран согласились с тем, что необходимо срочно понять и коллективно управлять потенциальными рисками, связанными с ИИ.

Премьер-министр Риши Сунак назвал встречу «знаковым достижением, благодаря которому мировые лидеры в области ИИ пришли к соглашению о срочной необходимости понимания рисков ИИ, что поможет обеспечить долгосрочное будущее наших детей и внуков».

Другие страны также подчеркнули необходимость глобального подхода к управлению этой технологией.

Отношения между Китаем и Западом сегодня зачастую оставляют желать лучшего, но заместитель министра науки и технологий КНР У Чжаохуэй заявил на конференции, что Китай стремится к духу открытости в области ИИ.

«Мы призываем к глобальному сотрудничеству, чтобы поделиться знаниями и сделать технологии ИИ общедоступными, — сказал он делегатам. — Китай готов расширять диалог и общение по вопросам безопасности ИИ со всеми сторонами».

Министр торговли США Джина Раймондо заявила, что по итогам саммита в США будет создан собственный Институт безопасности ИИ.

Министр технологий Великобритании Мишель Донелан, председательствовавшая на открытии саммита, объявила, что следующий саммит пройдет через полгода в виртуальном режиме и его организатором станет Южная Корея. Лично делегаты встретятся через год во Франции.

Истребить человечество — спасти планету?

Илон Маск, ранее не раз предупреждавший об угрозе искусственного интеллекта, в минувший вторник выступил в подкасте комика Джо Рогана и заявил, что некоторые люди могут использовать ИИ для защиты планеты, уничтожив человечество.

«Если начать думать, что люди — это плохо, то естественным выводом будет то, что люди должны вымереть, — сказал он. — Если ИИ будет запрограммирован сторонниками вымирания, то его полезной функцией будет вымирание человечества… Они даже не подумают, что это плохо».

В марте этого года Маск наряду с другими ведущими фигурами в области разработки ИИ подписал открытое письмо, в котором предлагалось сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.

«Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски — управляемыми», — говорилось в письме.

Правда, уже в апреле стало известно, что Маск зарегистрировал компанию X.AI Corp., которая должна была заниматься вопросами искусственного интеллекта с целью «познания реальности».

Многие эксперты считают опасения за судьбу человечества в связи с развитием ИИ преувеличенными.

Ник Клегг, бывший вице-премьер Великобритании, а ныне президент по глобальным вопросам компании Meta, также принимавший участие в саммите, сказал, что люди не должны позволять «спекулятивным, иногда несколько футуристическим прогнозам» вытеснять более насущные проблемы.

Как отмечает корреспондент Би-би-си по вопросам климатической дезинформации Марко Сильва, утверждения о том, что экологи хотят принять крайние меры для сокращения численности населения Земли, уже давно пользуются популярностью среди конспирологов.

Многие из них полагают, что климатические активисты являются частью некоего «культа смерти», стремящегося реализовать «программу депопуляции», осуществляемую с помощью радикальных мер, например принудительной стерилизации.

Разумеется, никаких доказательств этому нет, и вряд ли среди крупных климатологов и экологов найдется человек, готовый поддержать подобную политику борьбы с изменением климата.

Несмотря на то, что рост численности населения создает огромную нагрузку на ресурсы планеты, некоторые из самых густонаселенных стран мира демонстрируют одни из самых низких показателей выбросов парниковых газов на душу населения.

Многие наблюдатели считают, что наибольшую угрозу ИИ представляет собой автоматизация рабочих мест людей или формирование существующих предубеждений и предрассудков в новых, гораздо более мощных, онлайновых системах.