Искусственный интеллект это надежда или опасность для человечества кратко

Обновлено: 01.07.2024

Искусственный интеллект давно сошел со страниц научной фантастики и прочно укореняется в нашей повседневной жизни. Многие частные компании, лаборатории и государственные департаменты работают над созданием общего искусственного интеллекта – совершенно нового машинного разума, который превзойдет по возможностям человеческий, будет способный широко мыслить и самообучаться без участия специалистов.

Однако такой подход пугает часть ученых и экспертов из разных технологических областей. Стивен Хокинг и Илон Маск не один раз публично высказывали опасения по поводу опасности внедрения ИИ в различные сферы деятельности человека. Последний даже создал компанию OpenAI, которая работает над созданием безопасного искусственного интеллекта.

Давайте рассмотрим ключевые группы риска, где разные эксперты видят угрозу в становлении технологий искусственного интеллекта.

Экономические угрозы

Использование искусственного интеллекта в различных секторах экономики открывает новые возможности для многих бизнесов. Технологии позволяют автоматизировать множество процессов, оптимизировать использование ресурсов и прогнозировать определенные события. Эксперты считают, что внедрение ИИ освободит сотрудников предприятий от монотонной, рутинной работы и позволит им сосредоточиться на более сложных и творческих задачах.

Именно здесь, как считают противники автоматизации, и кроется основная угроза искусственного интеллекта. Так, в отчете Всемирного экономического форума говорится, что к 2022 году ИИ вытеснит и уничтожит 75 миллионов рабочих мест. Однако в этом же документе исследователи отмечают, что внедрение искусственного интеллекта приведет к появлению новых видов занятости для людей и к 2022 году чистый прирост рабочих мест составит 133 миллиона. Многие из них, вероятно, не будут соответствовать традиционной модели полной занятости, с которой мы знакомы сегодня. Вместо этого ожидается, что все больше работодателей будут расширять свою удаленную рабочую силу и полагаться на подрядчиков для удовлетворения большей части кадровых потребностей.

Военная враждебность

Использование искусственного интеллекта в военных целях далеко не новинка. Различные страны, такие как США, Китай или Россия создают целые правительственные подразделения, которые изучают возможности применения военизированного ИИ. Кроме этого, США уже использует некоторые алгоритмы в военных операциях.

Однако, ученые и специалисты выражают опасения, что технологии могут стать серьезным оружием, особенно в руках тоталитарных правительств или даже террористов. Критики этой точки зрения считают, что для создания таких технологий у незаконных организаций и тоталитарных государств попросту не хватит ресурсов. Ведь на подобные разработки необходимо иметь квалифицированные кадры, патенты и миллиарды долларов.

Кроме этого, общий искусственный интеллект, в теории, сможет обратить военные технологии против людей, если его “глобальные цели” и человечества будут противоречить друг другу. В таком случае, ИИ сможет решить, что единственный выход – уничтожить население планеты.

Эмоции против рационализма

В будущем, когда искусственный интеллект превзойдет технологическую сингулярность, он сможет самостоятельно думать и принимать решения. Следовательно, отсюда возникает вопрос – какими этическими нормами будет руководствоваться машина, принимая то или иное решение? Будет ли это похоже на действия человека, или алгоритмы разработают собственные нормы этики и морали? Этими вопросами активно занимаются многие организации, такие как Future of Life Institute, Foresight Institute и другие.

Так, Эллисон Дютман из Foresight Institute считает, что ИИ достаточно будет дать “прочитать” всю имеющуюся научную литературу об этике и сделать эту информацию базовой для его системы принятия решений.

Однако с ней не согласен философ Ник Бостром, который является ярым противником популяризации искусственного интеллекта. Он считает, что алгоритмы, достигшие уровня развития человека, смогут уничтожить человечество. Бостром объясняет это на примере производства скрепок. Если искусственный интеллект решит, что в мире катастрофически не хватает скрепок, то он сам поставит перед собой задачу произвести их как можно больше. И если алгоритм почувствует угрозу со стороны человека, например, принудительное отключение – он уничтожит “противника”. А если прямой угрозы не возникнет, ИИ сможет посчитать человеческий организм, который состоит из атомов подходящих для производства скрепок, прекрасным источником сырья. Так, компьютер переработает человечество на скрепки.

Пример Бострома очень утрирован, однако этим он пытается сказать, что если перед разумной машиной будет стоять конкретная цель – компьютер выполнит ее во что бы то ни стало.

Что нас ждет в будущем?

В ближайшее время нас ждет бум развития узкоспециализированных интеллектуальных технологий, которые будут ассистировать людей в повседневной и профессиональной жизни. Однако, когда появится общий искусственный интеллект никто не знает, а чего ожидать от него – тем более. Часть экспертов предостерегает от разработок таких технологий, другие наоборот – не видят в этом большой угрозы.

Тем не менее что бы не говорили приверженцы различных теорий, все зависит от людей. Ведь именно то, что создатели общего ИИ вложат в его основу – так он и будет развиваться. Поэтому, ученым, исследователям и разработчикам необходимо находится в тесном контакте друг с другом и работать совместно над созданием стабильной, безопасной и дружелюбной технологии.

Человечество уже многие свои фантазии воплотило в реальность. От карманных компьютеров до автомобилей с автопилотом и от виртуальной реальности до космического туризма. А теперь в жизнь воплощается и искусственный интеллект. Человечество постепенно стирает границы фантазии и вымысла посредством современных исследований и технологий.

Искусственный интеллект (далее ИИ) в настоящее время представляет собой перспективное направление, на которое ориентируются многие компании. Искусственный интеллект — это область науки, которая изучает работу аппаратных и программных компонентов, а именно их интеллектуальное поведение. Вместо того, чтобы получать информацию от пользователя, такие машины самостоятельно обучаются и становятся умнее.

В настоящее время над проектами ИИ работают многие компании, включая Microsoft, Google, Facebook и другие. В Южной Корее также есть несколько высококлассных проектов по искусственному интеллекту. А теперь представьте, что это лишь те компании, которые заявили об этом официально. Не стоит забывать, что наверняка есть много компаний, которые втайне работают над проектами искусственного интеллекта.

Искусственный интеллект, который когда-то считался живым лишь в человеческом воображении, сегодня вполне реален. Уже сейчас ИИ стал предметом большого интереса для многих лидеров в индустрии высоких технологий.

Почему искусственный интеллект должен нас беспокоить?

Сначала это был Стивен Хокинг , затем Илон Маск и совсем недавно Билл Гейтс. Эти великие умы человечества предполагают, что за ИИ нужно пристально следить.


Когда Стивену Хокингу был задан этот же вопрос, то он предупредил публику. Он сказал, что любое дальнейшее исследование искусственного интеллекта может быть фатальной ошибкой. Он упомянул, что развитый ИИ будет обладать способностью переделывать, усовершенствовать себя. Такой интеллект сможет эволюционировать самостоятельно с огромной скоростью. Людям такая скорость эволюции недоступна, что ставит человечество в заведомо на более низкую ступень развития по сравнению с ИИ.

По словам Билла Гейтса, устройства с искусственным интеллектом поначалу будут простыми. Но со временем они будут узнавать все больше о нас и о нашем мире. Они будут становиться все более могущественными и интеллектуальными, чем человечество.

Риски искусственного интеллекта

Существует четыре класса риска, создаваемого искусственным интеллектом:

1. Программная враждебность

Один из сценариев, когда ИИ может быть опасным, заключается в том, что он будет специально запрограммирован на враждебность. Например, со стороны военных или террористической группы, для достижения каких-то своих целей.

Еще один возможный сценарий враждебного искусственного интеллекта предполагает несовпадение глобальных целей, его и человечества. Что если расчеты искусственного интеллекта приведут к тому, что единственный способ достичь цели — это уничтожить всех людей? Вполне возможно, что это может спровоцировать его начать войну с человечеством.

Главная проблема в том, что ИИ не человек, и вряд ли с ним получится договориться. Его главным приоритетом будет выполнение глобальной задачи любой ценой. Поэтому война будет длиться, пока воля или способность человечества противостоять не будут уничтожены.

2. Пассивный риск

Фактически нет риска пассивной опасности от ИИ с приоритетными целями дружелюбности. Однако риск почти неизбежен от ИИ без таких целей. Пассивный ИИ может быть опасен просто потому, что он не учитывает безопасность человека, как это делают все люди.

Например, взять ИИ без целей дружелюбия, отвечающий за обработку посевов пестицидами. Этот ИИ будет обрабатывать поле, даже если знает, что в этот момент на поле находятся люди.

3. Случайный риск

Искусственный интеллект, работающий с неполными данными, способен ошибиться точно также, как и человек. Ошибки такого рода почти неизбежны, поскольку невозможно знать все обо всем в мире.

Однако, данный риск является наименее опасным, поскольку ИИ способен учиться на собственном опыте. Любые происшествия уменьшают вероятность повторения ошибки в будущем, улучшая ИИ, и делая его более безопасным.

4. Риск непостижимости


Реальная опасность хорошо спроектированного искусственного интеллекта заключается в его способности перепрограммировать и бесконечно совершенствовать себя. Такой ИИ, способный к самосовершенствованию, может в конечном итоге превзойти ограничения человеческого интеллекта.

Когда существует искусственный интеллект, который умнее любого человека на Земле, становится невозможно полностью понять его. Такой ИИ также, вероятно, будет продолжать улучшать себя все быстрее и быстрее. Ведь каждое новое открытие или технология только ускоряют этот процесс. И именно это будет делать его все более и более невозможным для понимания людьми.

Кроме того, в какой-то момент ИИ может обнаружить законы причинности или логики, выходящие далеко за пределы понимания человеческого разума. Тогда возможности того, что он может сделать, становятся просто бесконечными.

Заключение

Хотя существует множество гипотез об опасном искусственном интеллекте, мы должны понимать, что это всего лишь предположения, а не факты. Люди всегда сомневались в новых технологиях, и было время, когда мы также боялись сотовых телефонов. В конце концов, речь идет о том, каким мы создадим искусственный интеллект и как мы будем его контролировать.

Отношение к искусственному интеллекту неоднозначное: с одной стороны – прогресс, с другой – угрозы. Разберемся, какие опасности несут в себе искусственный интеллект, цифровизация, роботизация и автоматизация.

Прогресс или угроза: стоит ли нам бояться искусственного интеллекта

Любой инструмент, в том числе и искусственный интеллект, содержит в себе как опасность, так и возможности. Все зависит от того, кто его применяет и зачем.

Угрозы искусственного интеллекта

Лишние люди

Рост неравенства

В мире существует проблема неравенства, искусственный интеллект может ее усилить: кто обладает технологиями – получает преимущество. Определенное сообщество, владеющее технологиями, применяет их на массах, не имеющих таких возможностей.

Монополия на искусственный интеллект

Искусственный интеллект может сосредоточиться в одних руках. У него будет такое же преимущество, каким сейчас для стран является ядерное оружие. Смогут ли люди оставаться независимыми?

Потеря контроля над искусственным интеллектом

Пока неясно, как именно будет применяться искусственный интеллект и как будет проходить его развитие. Известна способность искусственного интеллекта к саморазвитию. Если это так, то возможен риск выхода роботов из-под контроля человека.

Влияние на свободу выбора человека

Находясь в сети, человек оставляет информационный след: обработка больших объемов информации позволяет создавать портрет человека, направляя на него индивидуальную рекламу, в том числе и политическую, что влияет на свободу выбора. Это может перейти в полный контроль над сознанием человека – манипулирование, зомбирование и все то, чего многие боятся. А контроль этот будет осуществлять тот, кто обладает технологиями, которые мы называем искусственным интеллектом.


К чему ведет цифровизация?

Последствия этого мы уже наблюдаем. Люди активно цифровизируются. Кто не в пространстве цифровизации – тот первым оказывается за бортом. Это касается не только карьеры, но и всех сторон жизни.

В мире есть значительные группы населения, у которых жизнь не связана с постоянным пребыванием в сети. Они вне возможностей, которые есть у остальных.

Как не остаться без работы?

Чтобы не остаться за бортом, и не оставить без дела большую часть человечества – нужно соответствовать цифровым вызовам и не терять человеческого обличия. Важно работать с ценностями.

Как быть с риском неограниченной свободы искусственного интеллекта? Действительно, выстраивая искусственный интеллект по своему подобию, можно получить нечто более сильное, что может уничтожить нас самих, как это бывает в фантастических фильмах или книгах фантастов. Инструмент может начать доминировать над своим создателем.

Не стоит всецело доверять машине, нужен контроль и постоянный анализ, чтобы не допустить отклонения от курса. Вряд ли кому-нибудь хотелось бы запустить неконтролируемые процессы в свою жизнь, в компанию, в мир в целом.


Как мы планируем использовать роботов?

Стоит вспомнить произведения Айзека Азимова, где писатель вывел законы робототехники: робот не должен причинять вред человеку, должен заботиться о собственной безопасности, если это не противоречит первому закону, должен выполнять указания человека. Однако сейчас, когда мы вплотную подошли к роботизации, становится понятно, что это слишком обобщенные правила, универсальные категории.

Мир ценностно и цивилизационно неоднороден. Кому будет подчиняться робот, если, например, между народами возникнет конфликт? В условиях ценностно расколотого мира, робот – инструмент в руках одних и угроза для других.

Многое зависит от вектора. В чем людям помогут роботы? Что человек считает прогрессом прямо сейчас? Мы движемся в направлении духовного развития или удовлетворения потребностей? Если речь о втором пути, то каждый из нас придет к деградации: роботы будут работать, а люди — паразитировать. Возможно, человечество зайдет в тупик. К тому же искусственный интеллект может оказаться чище и гуманнее людей.

Юридическая сторона вопроса

В юридической литературе западных стран в связи с идеями роботизации сейчас обсуждается вопрос прав человека на искусственный интеллект.

Что думают об ИИ известные и знаменитые?

Стивен Хокинг считал искусственный интеллект реальной угрозой жизни на Земле. Илон Маск, а также ряд ученых и изобретателей, соглашаются с этим. Директор Института будущего человечества в Оксфорде Ник Бостром выразил мнение, что ИИ способен уничтожить мир буквально за секунду.

Однако не стоит забывать, что сейчас речь идет о технологиях: того самого сверхразума, способного уничтожить планету, пока не существует. Ученые считают, что к середине нынешнего столетия он может появиться с вероятностью 50%.


Сможем ли мы контролировать искусственный интеллект?

В фильмах искусственный интеллект служит диктаторам, но вероятность такого сценария слишком мала: вряд ли сверхразум будет как-нибудь различать людей. Сложно представить и длительную борьбу между людьми и роботами. Более вероятный сценарий – все исчезнет в мгновение, превратившись в один большой компьютер, занятый ему одному понятными вычислениями.

Как не допустить подобного? Наверное, помнить, что важно все контролировать: ничего не начинать, не запускать и не включать, пока не будет уверенности в возможности выключить, остановить, скорректировать.

Возникает логичный вопрос: думают ли создатели искусственного интеллекта о том, как смогут выключить его, будут ли предусмотрены меры безопасности?

Кто занимается разработкой универсального ИИ?

Занимаясь созданием общего искусственного интеллекта, команды специалистов озвучивают полезные для человечества цели. Общий, универсальный, интеллект призван решать тупиковые проблемы, ускорять и оптимизировать нашу работу.

Когда мы говорим о сверхразуме и его опасности, речь идет об общем искусственном интеллекте (ОИИ). Термин звучит как Artificial general intelligence (General AI, AGI).


ОИИ будет решать задачи иначе. Это будет система, способная делать собственные выводы и самообучаться. Она сможет даже осознавать саму себя. Работая над созданием общего ИИ, люди мечтают, что он будет использовать общемировые знания для решения каждого конкретного вопроса, учитывая при этом контекст, анализируя все возможные виды информации.

Кто же ведет разработку общего ИИ? Недавно такой проект запустили в Google. Компания собирается обучить ИИ большому количеству навыков, после чего он станет универсальным, способным осознавать и обрабатывать все поступающие сигналы при любом способе передачи информации. Сейчас эта разработка находится только на начальной стадии. В рамках этой работы протестированы нейросети и опробованы на проектах Google Switch Transformer, Gshard и других.

В Китае уже создан чип Tianjic, который использует методы нейробиологии и схему имитации человеческого мозга. Чип повторяет функции мозговых нейронов, способных воспринимать информацию и конвертировать ее в нервные импульсы для импульсной нейросети и обратно.

Работают над общим искусственным интеллектом и в IBM. Компания разработала сверхточную нейронную сеть на нейроморфическом чипе TrueNorth. Сеть имитирует мозг человека, потребляя в тысячи раз меньше энергии, чем современные процессоры.

Что будет, когда в одной из лабораторий все-таки родится ОИИ?

Человечество похоже на ребенка, играющего с бомбой. Какая эмоция должна возникать у нас, когда мы узнаем о новых открытиях в области интеллектуальных систем – страх или радость от открывающихся перед человечеством перспектив?

Что делать человечеству? Учиться управлять своим будущим. То же самое нужно делать компаниям и каждому из нас.


Обыватель боится роботов и искусственного интеллекта. Можно долго перечислять произведения научной фантастики, в которых механические слуги и ИИ были созданы и прочно заняли важную нишу в нашей жизни, но по какой-то причине вышли из под контроля и обернулись против своих создателей.

Орен Эциони (глава Института искусственного интеллекта Аллена) исследует искусственный интеллект уже на протяжении 20 лет, и он полностью спокоен. Другие специалисты области высказывают похожие мысли.

Согласно его заявлению, известные мрачные сценарии развития ИИ неправильны по одной простой причине: они путают разум с автономией, и предполагают, что компьютер начнёт с помощью собственной воли создавать свои цели, а доступ к базам данных и вычислительные возможности помогут победить людей.

Эциони же считает, что эти два аспекта далеки друг от друга. Калькулятор в руках человека не начинает делать свои собственные вычисления — он всегда остаётся инструментом для упрощения расчётов, которые иначе было бы слишком долго делать вручную.

Аналогичным образом искусственный интеллект — это инструмент для произведения тех видов работ, которые либо слишком сложны, либо слишком дороги для нас: анализ больших объёмов данных, проведение медицинских исследований и так далее. ИИ требует человеческого участия и управления.

Уотсон не мечется в желании сыграть в другие телевизионные игры, он не имеет сознания. Как сказал Джон Сёрль, Уотсон даже не понимает, что он выиграл.

Доводы, направленные против ИИ, всегда оперируют гипотетическими терминами. К примеру, Хокинг говорит, что развитие полностью искусственного интеллекта может означать конец человеческой расы.

Проблема в этих настроениях состоит в том, что зарождение полностью искусственного интеллекта в ближайшие двадцать пять лет менее вероятно, чем гибель человечества от падения на Землю астероида.

Мы со времён рассказа о чудовище Франкенштейна боимся искусственных слуг, и если верить Айзеку Азимову, мы начнём испытывать состояние, названное им комплексом Франкенштейна.

Вместо того, чтобы бояться того, что технология может обернуться против нас, нам лучше сфокусироваться на том, как ИИ сможет улучшить нашу жизнь.

К примеру, издание Journal of the Association for Information Science and Technology утверждает, что мировой выход научных данных удваивается каждые два года. Специалист при всём желании уже не в состоянии уследить за всем. Поисковые машины показывают нам терабайты данных, с которыми человек не сможет ознакомиться и за всю свою жизнь.

Поэтому учёные работают над ИИ, который будет отвечать, к примеру, на вопрос, как тот или иной препарат повлияет на организм женщин среднего возраста, или хотя бы сможет ограничить число статей для поиска ответа. Нам нужно программное обеспечение, которое следит за научными публикациями и помечает важные, но не на основе ключевых слов, а базируясь на понимании информации.

Работа связана с преодолением множества трудностей, а скептики упускают из виду, что ещё на протяжении многих лет ИИ будет слабее ребёнка. Мир кибер-оружия не является сферой этого обсуждения, поскольку он не относится к искусственному интеллекту.

Вторит Эциони профессор психологии и неврологии Нью-Йоркского университета и глава Geometric Intelligence Гэри Маркус. Он также говорит, что искусственный интеллект ещё слишком слаб, чтобы можно было производить такие далекоидущие выводы, но также делает замечания о цене багов.

Чтобы принести убытки на миллиарды долларов и убивать людей, программе не обязательно иметь ум для создания злого умысла: натворить бед может и обычный торговый робот за счёт заложенных в него ошибок.

Ошибка в программе управления беспилотным автомобилем может привести к аварии и даже смерти, но это отнюдь не означает, что нам следует немедленно забросить исследования в этой области — эти программы смогут спасти сотни тысяч жизней в год.

Впрочем, паникёры тоже в чём-то правы. За последние десятилетия компьютеры превосходят человека в новых и новых задачах, и невозможно предсказать, какие уровни ограничений потребуются для минимизации рисков их деятельности. Проблема не в захвате мира машиной, проблема в ошибках, заложенных в ИИ.

Проблема состоит не только в этом. Общество видит ИИ в качестве эдакого абсолютного чуда технологии, могущественного и дорогого.

В отличие от человека, ИИ — не живое существо, пусть даже программа может выполнять задачи, обычно решаемые людьми. В них не заложены чувства, желания и стремления кроме тех, которые заложим в них мы, или которые они смогут сформировать сами на основе входных данных.

Только в научной фантастике искусственный интеллект хочет размножаться и реплицироваться. Пусть и можно создать программу с целями навредить, но проблема ли это самого ИИ?

Мы находимся в десятилетиях от той сингулярности, которой так боится Илон Маск. Сегодня IBM, Google, Apple и другие компании разрабатывают новое поколение приложений, которые способны лишь частично заменять человеческий элемент во многих однотипных, времязатратных и опасных работах. Нам не нужно развивать чувство страха в отношении этих программ, они лишь улучшают нашу жизнь. Единственное, что опасно — это люди, которые создают искусственный интеллект.

Читайте также: