Каковы социальные последствия массового внедрения технологий ии кратко

Обновлено: 05.07.2024

Искусственный интеллект пришел в нашу жизнь всерьез и надолго, и остановить этот процесс уже невозможно. В наших силах — понять, какое влияние он будет оказывать на жизнь и как изменятся привычные нам сферы деятельности. Центр содействия инновациям в обществе СОЛь сделали перевод статьи компании The Good Lobby, которая уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира, и рассказали о том, как ИИ перестроит общественную систему, закрепит новые нормы и изменит образование.

Влияние искусственного интеллекта на общество

Создание искусственного интеллекта (ИИ) называют 4-й промышленной революцией (предыдущие три: создание паровой машины, изобретение электричества и компьютера). Это название достаточно точно отражает влияние технологии на мир и то, каким мы его знаем. Конечно, ее потенциал в революционном изменении мировых устоев не остался незамеченным: государства, международные организации и частные компании выделяют огромное количество времени и ресурсов на развитие ИИ, особенно в последние несколько лет.

Читайте рассказ о взаимодействии искусственного интеллекта и общества, подготовленный компанией The Good Lobby (Бельгия), которая работает над тем, чтобы предоставить каждому гражданину равный доступ к органам власти — для создания более многогранного, инклюзивного и демократического общества.

Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеслав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.

Компания The Good Lobby — стипендиат фонда Ashoka, который уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира. Выявленных лидеров ежегодно представляют на Ashoka Changemaker Summit.

В дискуссии участвуют основатель QIWI Сергей Солонин и основатель компании Desan Денис Ходжаев. Модератор — инвестиционный директор Центра содействия инновациям в обществе Андрей Андрусов.

Общественные организации и сами люди должны внимательно следить за тем, что принесет внедрение ИИ в жизнь, и осознавать, какое влияние он будет оказывать на их работу и существование. Мы в The Good Lobby приняли на себя миссию рассказать о рисках и возможностях, которые уже сейчас несет ИИ, чтобы дать необходимые знания и инструменты, позволяющие капитализировать возможности и максимально снизить возможные риски его применения.

В поисках хорошего ИИ

Важность работы со стартапами и технологическими компаниями

Именно стартапы обеспечивают основное развитие ИИ. В то время как правительства уделяют пристальное внимание ИИ и некоторые из них вкладывают значительные средства в его развитие, одного лишь диалога с государственными институтами будет недостаточно.

Чтобы добиться максимального эффекта, организации и люди, лоббирующие развитие ИИ, должны сотрудничать с его разработчиками, активно взаимодействовать со стартапами и направлять свои усилия на продвижение инноваций в этой области

Демократия и принципы верховенства закона также подвержены изменениям в эпоху развития искусственного интеллекта. Один из примеров — распространение фейковых новостей (вне зависимости от их целенаправленности) в различных социальных сетях. Другой пример — использование подобных средств для влияния на избирательные намерения неопределившихся граждан.

Этот печально известный пример показал, как принципам демократии могут угрожать частные компании, которые точно знают, каким образом можно использовать данные и искусственный интеллект. Поскольку выборы, которые могут изменить весь мир, происходят практически каждый год, такие угрозы демократии будут не исключением, а скорее обычным явлением.

Новые формы дискриминации

Дискриминация — это широкомасштабная проблема, которая проявляется в самых разных формах и стоит перед огромным количеством организаций. Эпоха ИИ добавит ей новое измерение, так называемую алгоритмическую дискриминацию. Несмотря на то что существует тенденция считать решения, принимаемые алгоритмами, свободными от каких-либо недостатков и, следовательно, правильными, реальность такова, что на их качество влияют как инженеры, создавшие алгоритмы, так и данные, которые они используют. В результате алгоритмы могут (и будут) заимствовать предубеждения своих создателей и те систематические ошибки, которые существуют в используемых данных. Люди должны знать о рисках, а организации должны обеспечить адекватную поддержку тех, кто подвергается подобной дискриминации.

Прозрачность и подотчетность

Важность защиты данных будет возрастать

В последние несколько лет защите данных уделяется большое внимание. ИИ добавляет сложности и в этой области. Поскольку системы искусственного интеллекта требуют огромного количества данных, они станут своеобразной валютой, которую будут высоко ценить как частные компании, так и целые государства. Необходимо, чтобы люди знали об этом, а также о том, каким образом их данные могут быть использованы, иногда даже им в ущерб. Одним из ярких примеров является алгоритмическая ценовая дискриминация, когда в зависимости от собранных данных определенные сайты могут показывать разным клиентам разные цены.

Все вопросы, которые обсуждались до сих пор, безусловно, приведут к изменениям в законодательстве. Существующие законы будут обновляться для обеспечения отражения фактических изменений, связанных с расширением применения ИИ, а для заполнения возможных пробелов будут создаваться новые.

Сегодня в Европе на конечный вид новых законов в значительной степени влияют частные компании, которые уже сейчас очень громко заявляют о своих потребностях и их предпосылках. Общественные организации и граждане стран должны использовать свое право голоса и принять активное участие в регулировании применения ИИ как на европейском, так и на национальном уровнях.

Образование, рабочие места и автоматизация

Хотя цифры все еще обсуждаются, уже ясно, что ИИ создаст миллионы новых рабочих мест и одновременно приведет к исчезновению множества других. Новые рабочие места потребуют совершенно иных навыков. В результате рынок труда изменится кардинально, и система образования должна вводить соответствующие изменения, чтобы будущие поколения могли успешно существовать в эпоху искусственного интеллекта.

Риски и возможности

Для каждой организации и каждого человека в отдельности ИИ несет определенные риски, некоторые из которых мы уже обсудили выше. Но кроме рисков, ИИ также предлагает и возможности. Важно иметь информацию об обеих сторонах этой медали. В плане возможностей ИИ может обеспечить новые направления работы, новые источники финансирования и множество новых способов повысить качество и скорость работы.

Привлечение и сбор средств

ИИ — это инструмент, который, безусловно, может быть использован во благо. Благотворительные организации и НПО могут использовать ИИ, чтобы повысить эффективность взаимодействия со своими сторонниками и стимулировать сбор средств. Отличный пример — чат-бот Yeshi, созданный компанией Charity: Water для взаимодействия с потенциальными сторонниками через Facebook.

Совсем недавно в докладе, финансируемом Фондом Билла и Мелинды Гейтс AI4Giving, были рассмотрены способы, с помощью которых ИИ может повлиять на некоммерческий сектор в разных аспектах: от расширения возможностей сбора финансов до улучшения понимания того, что конкретно мотивирует спонсоров поддерживать ту или иную организацию.

А вот что говорит по поводу взаимодействия с искусственным интеллектом социальный инвестор и предприниматель Дэвид Городянский, главный исполнительный директор компании AnchorFree, разработчика Hotspot Shield, бесплатного программного обеспечения для организации виртуальной частной сети.

Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеcлав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.

Сегодня важно, чтобы некоммерческие организации понимали, в каком контексте они живут. Понимали, что есть и мировой контекст, а не только страновой или региональный. НКО часто не хватает такого взгляда, потому что они в большинстве своем заняты ежедневной рутинной работой.

Конечно, надо иметь в виду существование искусственного интеллекта и понимать, какие плюсы и минусы он несет. Однако есть такой парадокс: знания сами по себе не меняют поведение человека. Человек может знать и понимать все, но вести себя так, как вел раньше. Так что особо полагаться на просвещение я бы не стал. Я бы полагался на практики вовлечения людей в конкретные дела — зеленые и экологические инициативы или в обсуждение проблемы контроля за разработками искусственного интеллекта, каким образом можно повлиять на то, что делают ученые и технологи.

Автор: Александру Чирчумару (Alexandru Circiumaru). Оригинал статьи можно прочитать здесь.

Замена интеллектуальных функций человека машиной, полагаю, приведет к снижению занятости и, в последствии, умственных способностей людей. Также, возможно, это будет приводить к массовым депрессиям и потере смысла существования. Поживем - увидим.

ИИ будет хорошим толчком к оздоровлению человечества.сейчас день человека состоит из проснулся пошел на работу или. Читать дальше

То, что перестаёт быть нужным, то отмирает. И человек не будет даже человеком, он перестанет чувствовать и станет однотипен. ТИПИЧНЫЙ БИОМАТЕРИАЛ. Скорее всего стерилизация мозгов произойдёт.

О сообществе

Сообщество, в котором практикующие специалисты и ученые в области Машинного обучения и Искусственного интеллекта делятся опытом и помогают начинающим.

Большая часть опасений, выражаемых людьми по поводу ИИ, связана с тем, что нас заменит превосходящая форма интеллекта, способная мыслить так, как мы не можем себе представить, и побеждать нас практически в каждой роли, которую мы можем ей дать. Например, одним из отличительных факторов, дающих преимущество ИИ, является параллельное мышление [5] (рис. 1).

Подбор оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo

Рис. 1. Подбор оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo:
а) массивное параллельное мышление, осуществляющее подбор;
б) результат симуляции и реального исполнения алгоритма

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Что касается настоящего времени, то специалисты в области ИИ, осознающие риски и озабоченные возможными негативными последствиями бесконтрольного использования ИИ, пошли в этом направлении еще дальше. На Асиломарской конференции в США эксперты Future of Life Institute представили новый свод уточненных законов ИИ [5]. В нем раскрываются моральные вопросы и цели применения ИИ, а также приведен общий порядок его внедрения. Новый кодекс был одобрен 877 разработчиками в области ИИ. Среди его сторонников оказались Илон Маск (Elon Musk) и Стивен Хокинг (Stephen Hawking), не раз резко заявлявшие о рисках неконтролируемого развития ИИ. В 2016 г. глава SpaceX предупредил, что ИИ — более опасный, чем ядерные боеголовки (рис. 3) [11].

Если не принять соответствующие ограничительные меры, то мы не сможем гарантировать, что развитый ИИ попадет в правильные руки и что он будет использоваться с благими намерениями.

Новый кодекс минимизации рисков применения ИИ от Future of Life Institute гласит:

  • Системы ИИ должны быть безопасными, защищенными и проверяемыми в тех сферах, где это применимо и выполнимо. В случае неполадок и сбоев должна быть возможность выяснить их причину.
  • Любое участие автономной системы в принятии важных решений должно проверяться и одобряться человеком.
  • Создатели систем ИИ — посредники, ответственные за моральные вопросы применения ИИ. Они должны сформировать представление о возможности и границах использования ИИ.
  • Автономные системы ИИ должны быть спроектированы таким образом, чтобы разделять идеалы человеческого достоинства, прав, свобод и культурного многообразия.
  • Экономическая выгода и польза, которую приносит ИИ, должны быть широко распределены на благо всего человечества.
  • Необходимо избегать использования ИИ в гонке вооружений и в смертельном автономном оружии.

Что касается долгосрочной перспективы, то:

  • Необходимо избегать категоричных предположений относительно верхних пределов возможностей ИИ.
  • Развитый ИИ может повлечь глубокие изменения в истории жизни на Земле и должен управляться с соизмеримыми вниманием и усилиями.
  • Системы ИИ, запрограммированные на постоянное самосовершенствование и самовоспроизведение, что приводит к их быстро растущему количеству или качеству, должны быть объектом строгого контроля.
  • Суперинтеллект должен быть спроектирован в соответствии с широко распространенными идеалами этики и служить выгоде всего человечества, а не отдельного государства или организации.

Социальные аспекты роботизации и внедрения ИИ

Есть еще одна тесно связанная с рассматриваемой темой проблема, о которой хотелось бы упомянуть. По прогнозам аналитиков, в ближайшие двадцать лет машины могут занять или радикально изменить около половины существующих в мире рабочих мест. Об этом сообщает Bloomberg со ссылкой на Организацию экономического сотрудничества и развития (Organisation for Economic Co-operation and Development, OECD). С одной стороны, благодаря совершенствованию технологий появляются новые рынки и некоторые работники смогут извлечь из этого выгоду. Однако молодые, низкоквалифицированные, а также работающие неполный рабочий день специалисты окажутся уязвимыми перед автоматизацией. Кроме того, в зоне риска находятся женщины, поскольку они с большей вероятностью будут неполностью заняты и их труд будет менее оплачиваемым. Человечество ожидает катастрофа, в случае если люди не смогут адаптироваться и найти свою нишу при повсеместном внедрении роботов. Рано или поздно, но людям придется смириться с тем, что их рабочие места займут роботы, так что нам нужно научиться существовать в симбиозе с продвинутым ИИ (рис. 5) [13].

Исходя из сказанного OECD предупредила развитые страны о будущем сокращении численности среднего класса и потере рабочих мест из-за ИИ, что, в свою очередь, приведет к социальной напряженности. Однако хочется надеяться, что мы не станем действовать как луддиты, только в ходе уже четвертой промышленной революции [6].

ИИ как бизнес, инновации и НИР

Сегодня ИИ — один из самых горячих трендов в высокотехнологическом бизнесе (рис. 6). Все больше компаний — как стартапов, так и крупных корпораций — интегрируют технологии ИИ в свои бизнес-процессы. По данным аналитического отчета AI International Report 2018 [7], глобальный рынок продуктов на основе ИИ только растет, и его среднегодовые темпы роста до 2024 г. прогнозируются на уровне 37%, при этом общий объем рынка должен достичь примерно $190 млрд.

Высокотехнологичное роботизированное производство

Рис. 6. Высокотехнологичное роботизированное производство

Упомянутый в начале статьи отчет [3] (краткое содержание на русском языке в виде тезисов доступно в [14]) также подтверждает такую тенденцию, показывая резкий рост инвестиций в эту область. По данным отчета, объем инвестиций в сферу ИИ в 2018 г. составил $27 млрд, из них 55% — это американские вложения. Крупнейшие мировые ИТ-гиганты ежегодно покупают десятки стартапов в сфере ИИ, тратя на каждую покупку сотни миллионов долларов.

По результатам отчета, список самых продуктивных организаций в части научных исследований в этой области возглавляет Google. Далее идут Массачусетский технологический институт, Стэнфордский университет, Университет Карнеги-Меллона, Калифорнийский университет в Беркли. Количество зачисленных в университеты студентов, которых привлекают специальности в области ИИ, каждый год возрастает в несколько раз. А особенно быстрый рост исследований наблюдается в Китае.

Прогнозы аналитиков на ближайшее будущее ИИ пока такие [3]:

  • Мир накроет волна стартапов, основанных на передовых исследованиях в сфере Natural Language Processing (понимание человеческого языка ИИ). Все эти стартапы в ближайший год могут привлечь более $100 млн инвестиций.
  • Технология автономного вождения пока останется на стадии НИОКР. В 2019 г. ни один автопроизводитель не обеспечит автономное вождение автомобилей на дистанции более 15 млн миль, что эквивалентно дистанции, которую проезжает одна тысяча водителей в Калифорнии за год.
  • Компании, не входящие в список двух тысяч крупнейших публичных компаний мира по версии журнала Forbes, также усилят свои политики безопасности в отношении конфиденциальности данных пользователей при использовании технологий машинного обучения.
  • Университеты разработают программы обучения бакалавров в сфере ИИ, чтобы заполнить пробел в специалистах этой отрасли.
  • Компании Google и IBM совершат прорыв в сфере аппаратного обеспечения квантовых вычислений. В результате появится как минимум пять новых стартапов, которые попытаются создать технологию квантового машинного обучения.
  • По мере того как системы ИИ становятся более мощными, тема управления ИИ приобретает все большее значение. Поэтому как минимум один крупный разработчик ИИ внесет существенные изменения в модель управления ИИ.

Заключение

В свете описанных вопросов и вытекающих из них проблем главное — строго придерживаться выполнения этических законов робототехники, поставив заслон желающим стать властелинами мира. Нельзя отдать эту технологию на откуп безответственным правителям и военным, поскольку, как в известном анекдоте, даже кровать, попав к ним в руки, в итоге превращается в пулемет.

Использование ИИ в военных целях может привести к страшным последствиям

Рис. 7. Использование ИИ в военных целях может привести к страшным последствиям

Автор выражает свою благодарность Джейсону Миллеру (Jason Miller, США, компания Microsoft) за доступ к его материалам по теме ИИ и разрешение их использовать и Борису Коропову (Boris Koropov, Израиль) — за критические замечания и рецензирование данной статьи.


В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Рабочая тетрадь Российского совета по международным делам (РСМД) включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Публикация призвана внести вклад в общественную дискуссию по вопросам искусственного интеллекта и возможных последствий применения данной технологии.

В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Рабочая тетрадь Российского совета по международным делам (РСМД) включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Публикация призвана внести вклад в общественную дискуссию по вопросам искусственного интеллекта и возможных последствий применения данной технологии.

Читайте также: