Каковы социальные последствия массового внедрения технологий ии кратко
Обновлено: 05.07.2024
Искусственный интеллект пришел в нашу жизнь всерьез и надолго, и остановить этот процесс уже невозможно. В наших силах — понять, какое влияние он будет оказывать на жизнь и как изменятся привычные нам сферы деятельности. Центр содействия инновациям в обществе СОЛь сделали перевод статьи компании The Good Lobby, которая уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира, и рассказали о том, как ИИ перестроит общественную систему, закрепит новые нормы и изменит образование.
Влияние искусственного интеллекта на общество
Создание искусственного интеллекта (ИИ) называют 4-й промышленной революцией (предыдущие три: создание паровой машины, изобретение электричества и компьютера). Это название достаточно точно отражает влияние технологии на мир и то, каким мы его знаем. Конечно, ее потенциал в революционном изменении мировых устоев не остался незамеченным: государства, международные организации и частные компании выделяют огромное количество времени и ресурсов на развитие ИИ, особенно в последние несколько лет.
Читайте рассказ о взаимодействии искусственного интеллекта и общества, подготовленный компанией The Good Lobby (Бельгия), которая работает над тем, чтобы предоставить каждому гражданину равный доступ к органам власти — для создания более многогранного, инклюзивного и демократического общества.
Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеслав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.
Компания The Good Lobby — стипендиат фонда Ashoka, который уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира. Выявленных лидеров ежегодно представляют на Ashoka Changemaker Summit.
В дискуссии участвуют основатель QIWI Сергей Солонин и основатель компании Desan Денис Ходжаев. Модератор — инвестиционный директор Центра содействия инновациям в обществе Андрей Андрусов.
Общественные организации и сами люди должны внимательно следить за тем, что принесет внедрение ИИ в жизнь, и осознавать, какое влияние он будет оказывать на их работу и существование. Мы в The Good Lobby приняли на себя миссию рассказать о рисках и возможностях, которые уже сейчас несет ИИ, чтобы дать необходимые знания и инструменты, позволяющие капитализировать возможности и максимально снизить возможные риски его применения.
В поисках хорошего ИИ
Важность работы со стартапами и технологическими компаниями
Именно стартапы обеспечивают основное развитие ИИ. В то время как правительства уделяют пристальное внимание ИИ и некоторые из них вкладывают значительные средства в его развитие, одного лишь диалога с государственными институтами будет недостаточно.
Чтобы добиться максимального эффекта, организации и люди, лоббирующие развитие ИИ, должны сотрудничать с его разработчиками, активно взаимодействовать со стартапами и направлять свои усилия на продвижение инноваций в этой области
Демократия и принципы верховенства закона также подвержены изменениям в эпоху развития искусственного интеллекта. Один из примеров — распространение фейковых новостей (вне зависимости от их целенаправленности) в различных социальных сетях. Другой пример — использование подобных средств для влияния на избирательные намерения неопределившихся граждан.
Этот печально известный пример показал, как принципам демократии могут угрожать частные компании, которые точно знают, каким образом можно использовать данные и искусственный интеллект. Поскольку выборы, которые могут изменить весь мир, происходят практически каждый год, такие угрозы демократии будут не исключением, а скорее обычным явлением.
Новые формы дискриминации
Дискриминация — это широкомасштабная проблема, которая проявляется в самых разных формах и стоит перед огромным количеством организаций. Эпоха ИИ добавит ей новое измерение, так называемую алгоритмическую дискриминацию. Несмотря на то что существует тенденция считать решения, принимаемые алгоритмами, свободными от каких-либо недостатков и, следовательно, правильными, реальность такова, что на их качество влияют как инженеры, создавшие алгоритмы, так и данные, которые они используют. В результате алгоритмы могут (и будут) заимствовать предубеждения своих создателей и те систематические ошибки, которые существуют в используемых данных. Люди должны знать о рисках, а организации должны обеспечить адекватную поддержку тех, кто подвергается подобной дискриминации.
Прозрачность и подотчетность
Важность защиты данных будет возрастать
В последние несколько лет защите данных уделяется большое внимание. ИИ добавляет сложности и в этой области. Поскольку системы искусственного интеллекта требуют огромного количества данных, они станут своеобразной валютой, которую будут высоко ценить как частные компании, так и целые государства. Необходимо, чтобы люди знали об этом, а также о том, каким образом их данные могут быть использованы, иногда даже им в ущерб. Одним из ярких примеров является алгоритмическая ценовая дискриминация, когда в зависимости от собранных данных определенные сайты могут показывать разным клиентам разные цены.
Все вопросы, которые обсуждались до сих пор, безусловно, приведут к изменениям в законодательстве. Существующие законы будут обновляться для обеспечения отражения фактических изменений, связанных с расширением применения ИИ, а для заполнения возможных пробелов будут создаваться новые.
Сегодня в Европе на конечный вид новых законов в значительной степени влияют частные компании, которые уже сейчас очень громко заявляют о своих потребностях и их предпосылках. Общественные организации и граждане стран должны использовать свое право голоса и принять активное участие в регулировании применения ИИ как на европейском, так и на национальном уровнях.
Образование, рабочие места и автоматизация
Хотя цифры все еще обсуждаются, уже ясно, что ИИ создаст миллионы новых рабочих мест и одновременно приведет к исчезновению множества других. Новые рабочие места потребуют совершенно иных навыков. В результате рынок труда изменится кардинально, и система образования должна вводить соответствующие изменения, чтобы будущие поколения могли успешно существовать в эпоху искусственного интеллекта.
Риски и возможности
Для каждой организации и каждого человека в отдельности ИИ несет определенные риски, некоторые из которых мы уже обсудили выше. Но кроме рисков, ИИ также предлагает и возможности. Важно иметь информацию об обеих сторонах этой медали. В плане возможностей ИИ может обеспечить новые направления работы, новые источники финансирования и множество новых способов повысить качество и скорость работы.
Привлечение и сбор средств
ИИ — это инструмент, который, безусловно, может быть использован во благо. Благотворительные организации и НПО могут использовать ИИ, чтобы повысить эффективность взаимодействия со своими сторонниками и стимулировать сбор средств. Отличный пример — чат-бот Yeshi, созданный компанией Charity: Water для взаимодействия с потенциальными сторонниками через Facebook.
Совсем недавно в докладе, финансируемом Фондом Билла и Мелинды Гейтс AI4Giving, были рассмотрены способы, с помощью которых ИИ может повлиять на некоммерческий сектор в разных аспектах: от расширения возможностей сбора финансов до улучшения понимания того, что конкретно мотивирует спонсоров поддерживать ту или иную организацию.
А вот что говорит по поводу взаимодействия с искусственным интеллектом социальный инвестор и предприниматель Дэвид Городянский, главный исполнительный директор компании AnchorFree, разработчика Hotspot Shield, бесплатного программного обеспечения для организации виртуальной частной сети.
Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеcлав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.
Сегодня важно, чтобы некоммерческие организации понимали, в каком контексте они живут. Понимали, что есть и мировой контекст, а не только страновой или региональный. НКО часто не хватает такого взгляда, потому что они в большинстве своем заняты ежедневной рутинной работой.
Конечно, надо иметь в виду существование искусственного интеллекта и понимать, какие плюсы и минусы он несет. Однако есть такой парадокс: знания сами по себе не меняют поведение человека. Человек может знать и понимать все, но вести себя так, как вел раньше. Так что особо полагаться на просвещение я бы не стал. Я бы полагался на практики вовлечения людей в конкретные дела — зеленые и экологические инициативы или в обсуждение проблемы контроля за разработками искусственного интеллекта, каким образом можно повлиять на то, что делают ученые и технологи.
Автор: Александру Чирчумару (Alexandru Circiumaru). Оригинал статьи можно прочитать здесь.
Замена интеллектуальных функций человека машиной, полагаю, приведет к снижению занятости и, в последствии, умственных способностей людей. Также, возможно, это будет приводить к массовым депрессиям и потере смысла существования. Поживем - увидим.
ИИ будет хорошим толчком к оздоровлению человечества.сейчас день человека состоит из проснулся пошел на работу или. Читать дальше
То, что перестаёт быть нужным, то отмирает. И человек не будет даже человеком, он перестанет чувствовать и станет однотипен. ТИПИЧНЫЙ БИОМАТЕРИАЛ. Скорее всего стерилизация мозгов произойдёт.
О сообществе
Сообщество, в котором практикующие специалисты и ученые в области Машинного обучения и Искусственного интеллекта делятся опытом и помогают начинающим.
Большая часть опасений, выражаемых людьми по поводу ИИ, связана с тем, что нас заменит превосходящая форма интеллекта, способная мыслить так, как мы не можем себе представить, и побеждать нас практически в каждой роли, которую мы можем ей дать. Например, одним из отличительных факторов, дающих преимущество ИИ, является параллельное мышление [5] (рис. 1).
Рис. 1. Подбор оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo:
а) массивное параллельное мышление, осуществляющее подбор;
б) результат симуляции и реального исполнения алгоритма
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Что касается настоящего времени, то специалисты в области ИИ, осознающие риски и озабоченные возможными негативными последствиями бесконтрольного использования ИИ, пошли в этом направлении еще дальше. На Асиломарской конференции в США эксперты Future of Life Institute представили новый свод уточненных законов ИИ [5]. В нем раскрываются моральные вопросы и цели применения ИИ, а также приведен общий порядок его внедрения. Новый кодекс был одобрен 877 разработчиками в области ИИ. Среди его сторонников оказались Илон Маск (Elon Musk) и Стивен Хокинг (Stephen Hawking), не раз резко заявлявшие о рисках неконтролируемого развития ИИ. В 2016 г. глава SpaceX предупредил, что ИИ — более опасный, чем ядерные боеголовки (рис. 3) [11].
Если не принять соответствующие ограничительные меры, то мы не сможем гарантировать, что развитый ИИ попадет в правильные руки и что он будет использоваться с благими намерениями.
Новый кодекс минимизации рисков применения ИИ от Future of Life Institute гласит:
- Системы ИИ должны быть безопасными, защищенными и проверяемыми в тех сферах, где это применимо и выполнимо. В случае неполадок и сбоев должна быть возможность выяснить их причину.
- Любое участие автономной системы в принятии важных решений должно проверяться и одобряться человеком.
- Создатели систем ИИ — посредники, ответственные за моральные вопросы применения ИИ. Они должны сформировать представление о возможности и границах использования ИИ.
- Автономные системы ИИ должны быть спроектированы таким образом, чтобы разделять идеалы человеческого достоинства, прав, свобод и культурного многообразия.
- Экономическая выгода и польза, которую приносит ИИ, должны быть широко распределены на благо всего человечества.
- Необходимо избегать использования ИИ в гонке вооружений и в смертельном автономном оружии.
Что касается долгосрочной перспективы, то:
- Необходимо избегать категоричных предположений относительно верхних пределов возможностей ИИ.
- Развитый ИИ может повлечь глубокие изменения в истории жизни на Земле и должен управляться с соизмеримыми вниманием и усилиями.
- Системы ИИ, запрограммированные на постоянное самосовершенствование и самовоспроизведение, что приводит к их быстро растущему количеству или качеству, должны быть объектом строгого контроля.
- Суперинтеллект должен быть спроектирован в соответствии с широко распространенными идеалами этики и служить выгоде всего человечества, а не отдельного государства или организации.
Социальные аспекты роботизации и внедрения ИИ
Есть еще одна тесно связанная с рассматриваемой темой проблема, о которой хотелось бы упомянуть. По прогнозам аналитиков, в ближайшие двадцать лет машины могут занять или радикально изменить около половины существующих в мире рабочих мест. Об этом сообщает Bloomberg со ссылкой на Организацию экономического сотрудничества и развития (Organisation for Economic Co-operation and Development, OECD). С одной стороны, благодаря совершенствованию технологий появляются новые рынки и некоторые работники смогут извлечь из этого выгоду. Однако молодые, низкоквалифицированные, а также работающие неполный рабочий день специалисты окажутся уязвимыми перед автоматизацией. Кроме того, в зоне риска находятся женщины, поскольку они с большей вероятностью будут неполностью заняты и их труд будет менее оплачиваемым. Человечество ожидает катастрофа, в случае если люди не смогут адаптироваться и найти свою нишу при повсеместном внедрении роботов. Рано или поздно, но людям придется смириться с тем, что их рабочие места займут роботы, так что нам нужно научиться существовать в симбиозе с продвинутым ИИ (рис. 5) [13].
Исходя из сказанного OECD предупредила развитые страны о будущем сокращении численности среднего класса и потере рабочих мест из-за ИИ, что, в свою очередь, приведет к социальной напряженности. Однако хочется надеяться, что мы не станем действовать как луддиты, только в ходе уже четвертой промышленной революции [6].
ИИ как бизнес, инновации и НИР
Сегодня ИИ — один из самых горячих трендов в высокотехнологическом бизнесе (рис. 6). Все больше компаний — как стартапов, так и крупных корпораций — интегрируют технологии ИИ в свои бизнес-процессы. По данным аналитического отчета AI International Report 2018 [7], глобальный рынок продуктов на основе ИИ только растет, и его среднегодовые темпы роста до 2024 г. прогнозируются на уровне 37%, при этом общий объем рынка должен достичь примерно $190 млрд.
Рис. 6. Высокотехнологичное роботизированное производство
Упомянутый в начале статьи отчет [3] (краткое содержание на русском языке в виде тезисов доступно в [14]) также подтверждает такую тенденцию, показывая резкий рост инвестиций в эту область. По данным отчета, объем инвестиций в сферу ИИ в 2018 г. составил $27 млрд, из них 55% — это американские вложения. Крупнейшие мировые ИТ-гиганты ежегодно покупают десятки стартапов в сфере ИИ, тратя на каждую покупку сотни миллионов долларов.
По результатам отчета, список самых продуктивных организаций в части научных исследований в этой области возглавляет Google. Далее идут Массачусетский технологический институт, Стэнфордский университет, Университет Карнеги-Меллона, Калифорнийский университет в Беркли. Количество зачисленных в университеты студентов, которых привлекают специальности в области ИИ, каждый год возрастает в несколько раз. А особенно быстрый рост исследований наблюдается в Китае.
Прогнозы аналитиков на ближайшее будущее ИИ пока такие [3]:
- Мир накроет волна стартапов, основанных на передовых исследованиях в сфере Natural Language Processing (понимание человеческого языка ИИ). Все эти стартапы в ближайший год могут привлечь более $100 млн инвестиций.
- Технология автономного вождения пока останется на стадии НИОКР. В 2019 г. ни один автопроизводитель не обеспечит автономное вождение автомобилей на дистанции более 15 млн миль, что эквивалентно дистанции, которую проезжает одна тысяча водителей в Калифорнии за год.
- Компании, не входящие в список двух тысяч крупнейших публичных компаний мира по версии журнала Forbes, также усилят свои политики безопасности в отношении конфиденциальности данных пользователей при использовании технологий машинного обучения.
- Университеты разработают программы обучения бакалавров в сфере ИИ, чтобы заполнить пробел в специалистах этой отрасли.
- Компании Google и IBM совершат прорыв в сфере аппаратного обеспечения квантовых вычислений. В результате появится как минимум пять новых стартапов, которые попытаются создать технологию квантового машинного обучения.
- По мере того как системы ИИ становятся более мощными, тема управления ИИ приобретает все большее значение. Поэтому как минимум один крупный разработчик ИИ внесет существенные изменения в модель управления ИИ.
Заключение
В свете описанных вопросов и вытекающих из них проблем главное — строго придерживаться выполнения этических законов робототехники, поставив заслон желающим стать властелинами мира. Нельзя отдать эту технологию на откуп безответственным правителям и военным, поскольку, как в известном анекдоте, даже кровать, попав к ним в руки, в итоге превращается в пулемет.
Рис. 7. Использование ИИ в военных целях может привести к страшным последствиям
Автор выражает свою благодарность Джейсону Миллеру (Jason Miller, США, компания Microsoft) за доступ к его материалам по теме ИИ и разрешение их использовать и Борису Коропову (Boris Koropov, Израиль) — за критические замечания и рецензирование данной статьи.
В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Рабочая тетрадь Российского совета по международным делам (РСМД) включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Публикация призвана внести вклад в общественную дискуссию по вопросам искусственного интеллекта и возможных последствий применения данной технологии.
В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Рабочая тетрадь Российского совета по международным делам (РСМД) включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Публикация призвана внести вклад в общественную дискуссию по вопросам искусственного интеллекта и возможных последствий применения данной технологии.
Читайте также: