Ученые выяснили, что для человечества страшнее апокалипсиса

Ученые выяснили, что для человечества страшнее апокалипсиса
Это интересно 842

Большинство людей воспринимают реальные, происходящие в настоящем времени риски, связанные с развитием искусственного интеллекта, значительно серьезнее, чем абстрактные гипотетические сценарии, согласно которым искусственный интеллект якобы может привести к уничтожению человечества. К такому выводу пришли исследователи, представляющие Цюрихский университет, которые провели опрос, охвативший более десяти тысяч человек из Соединённых Штатов Америки и Великобритании. Результаты исследования были опубликованы в научном журнале Proceedings of the National Academy of Sciences.

Ученые установили, что, несмотря на то что тема так называемых "экзистенциальных угроз" активно обсуждается в обществе, люди в гораздо большей степени обеспокоены конкретными, ощутимыми проблемами, связанными с использованием искусственного интеллекта. Среди таких проблем чаще всего назывались предвзятость алгоритмов, распространение дезинформации и автоматизация, которая может привести к потере рабочих мест. Даже когда участникам демонстрировались заголовки новостей с устрашающими изображениями, ассоциирующимися с апокалипсисом, их внимание все равно сосредотачивалось на насущных, текущих вызовах.

"Респонденты ясно различают теоретические, гипотетические опасности и реальные, уже существующие проблемы, и относятся к последним с очень высокой степенью серьёзности", - отметил профессор Фабрицио Джиларди, являющийся одним из авторов исследования.

Интересно, что даже в тех случаях, когда у участников усиливались тревожные чувства в ответ на драматические, "катастрофические" описания искусственного интеллекта, уровень обеспокоенности конкретными, уже наблюдаемыми угрозами всё равно оставался более высоким. Это опровергает распространённое мнение, согласно которому разговоры о гипотетических сценариях развития технологий отвлекают общество от осознания и обсуждения актуальных проблем.

"Общественная дискуссия не должна превращаться в выбор между крайностями - либо говорить только о настоящем, либо только о будущем", - подчеркнул Джиларди. - "Необходимо одновременно принимать во внимание и существующие, и потенциальные долгосрочные риски, связанные с развитием искусственного интеллекта".

Исследование впервые представило систематические данные, подтверждающие, что даже при повышенном внимании к возможным будущим угрозам, общественный интерес к актуальным проблемам остаётся высоким. Авторы подчёркивают необходимость широкого и сбалансированного диалога по вопросам этики, социальной ответственности и рисков, которые возникают в связи с развитием технологий искусственного интеллекта.

Последние новости