Поддержать команду Зеркала
Беларусы на войне
  1. СК: Упавший в Минске беспилотник был начинен тротилом и большим количеством поражающих элементов. Опубликовано видео падения дрона
  2. В Минске банкротится компания, которая проработала всего неделю
  3. Что это было? Четыре версии того, как упавший во дворе беспилотник мог попасть в Минск
  4. Литовские военные: Наиболее вероятная версия — прилетевший со стороны Беларуси дрон был дезориентирован украинской ПВО
  5. «Гранаты откидывал назад в милицию». Беларус четыре года прятался от силовиков, попался, но смог покинуть страну — вот его история
  6. «Все проснулись, ночь вышла ужасной». Во Фрунзенском районе Минска в дом врезался беспилотник
  7. «Это игра в две стороны». Спросили «Киберпартизан», что удивило в системах «Аэрофлота» и что будет с данными пассажиров
  8. Гомельские милиционеры случайно добавили «экстремиста» в свой внутренний чат — что он там увидел
  9. «Гендиректор Аэрофлота не менял пароль с 2022 года». «Киберпартизаны» рассказали, как взломали «Аэрофлот»
  10. Москва формирует образ «одиночной войны с Западом» ради поддержки агрессии — ISW
  11. В сети появилась информация о маньяке в Светлогорске, который изнасиловал двух девочек. Милиция и медики прокомментировали
  12. «Уничтожена внутренняя IT-инфраструктура». Киберпартизаны и Silent Crow заявили о своей причастности к сбоям «Аэрофлота»
  13. Подтверждение словам Слюнькина двухлетней давности. Послы Беларуси в других странах сделали совместное фото — вот сколько там женщин
  14. Остались последние дни дешевого доллара: что меняется? Прогноз по валютам
  15. Как «ударный дрон» смог долететь до столицы и почему военные не сбили его раньше? Спросили у экспертов


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.