Проблемы кибернетики и искусственного интеллекта реферат

Обновлено: 02.07.2024

Учение об искусственном интеллекте — разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом используемые методы не обязаны быть биологически правдоподобны. Но проблема состоит в том, что неизвестно какие вычислительные процедуры мы хотим называть интеллектуальными. А так как мы понимаем только некоторые механизмы интеллекта, то под интеллектом в пределах этой науки мы понимаем только вычислительную часть способности достигнуть целей в мире.

Но до сих пор единого ответа на вопрос чем занимается искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Обычно эти определения сводятся к следующим:

По состоянию на 2009 год ни одна из существующих компьютерных систем не приблизилась к прохождению теста.

Логический подход.Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов.

Учебной моделью систем искусственного интеллекта в 1980-х годах был принят язык и система логического программирования Пролог.

Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определенные знания как конкретные и обобщенные сведения.

В целом исследования проблем искусственный интеллект в информатике в рамках логического подхода к проектированию баз знаний и экспертных систем направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интелектуальных информационных систем.

Агентно-ориентированный подход.Последний подход, развиваемый с начала 1990-х годов называется агентно-ориентированным подходом, или подходом, основанным на использовании интеллектуальных (рациональных) агентов. Согласно этому подходу, интеллект — это вычислительная часть (грубо говоря, планирование) способности достигать поставленных перед интеллектуальной машиной целей. Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков и способной воздействовать на объекты в окружающей среде с помощью исполнительных механизмов.

Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно сильнее изучаются Алгоритмы поиска и принятия решений.

Другие подходы

Интуитивные.Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём, в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).

Первые упоминания

Хотя исследования в области искусственного интеллекта начались в 1956 году, их философские корни уходят глубоко в прошлое. Вопрос, может машина думать или нет, имеет долгую историю. Он тесно связан с различиями между дуалистическим и материалистическим взглядами. С точки зрения дуализма, мысль не является материальной (или, по крайней мере, не имеет материальных свойств), и поэтому разум нельзя объяснить только с помощью физических понятий. С другой стороны, материализм гласит, что разум можно объяснить физически, таким образом, оставляя возможность существования разумов, созданных искусственно.

Философские проблемы

-Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?

-Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?

-Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Также философии пришлось столкнуться с этические проблемы создания искусственного разума. Рассмотрим некоторые проблемы, которые могут возникнуть при и после создания ИИ. Следует отметить, что в данном реферате изложен далеко не полный перечень таких проблем.

Проблема 1. Проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение — "Терминатор". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности – трех законах роботехники:

· Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

· Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

· Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как "причинить вред". Или "допустить". Попробуйте определить, что происходит в любом случае, а что он "допустил"?

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система ИИ под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции ИИ, то можно предложить следующий вариант. Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" — "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Вывод по проблеме 1. Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а ИИ теперь является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

С конца 40-х годов ученые все большего числа университетских и промышленных исследовательских лабораторий устремились к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума.

Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта (ИИ), обнаружили, что вступили в схватку с весьма запутанными проблемами, далеко выходя ­ щими за пределы традиционной информатики. Оказалось, что прежде всего необходимо понять механизмы процесса обучения, природу языка и чувс ­ твенного восприятия. И тогда многие исследователи пришли к выводу, что пожалуй самая трудная проблема, стоящая перед современной наукой - познание процессов функционирования человеческого разума, а не просто имитация его работы. Что непосредственно затраги ­ вало фундаментальные теоретические проблемы психологической науки. В самом деле, ученым трудно даже прийти к единой точке зрения относи ­ тельно самого предмета их исследований - интеллекта.

Некоторые считают, что интеллект - умение решать сложные задачи; другие рассматривают его как способность к обучению, обобщению и ана ­ логиям; третьи - как возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого.

Механический подход.

Идея создания мыслящих машин "человеческого типа", которые каза ­ лось бы думают, двигаются, слышат , говорят, и вообще ведут себя как живые люди уходит корнями в глубокое прошлое. Еще древние египтяне и римляне испытывали благоговейный ужас перед культовыми статуями, кото ­ рые жестикулировали и изрекали пророчества (разумеется не без помощи жрецов). В средние века и даже позднее ходили слухи о том, что у кого-то из мудрецов есть гомункулы (маленькие искусственные человечки) - настоящие живые, спо ­ собные чувствовать существа. Выдающийся швейцарский врач и естествоис ­ пытатель XVI в Теофраст Бомбаст фон Гогенгейм (более известный под именем Парацельс) оставил руководство по изготовлению гомункула, в ко ­ тором описывалась странная процедура, начинавшаяся с закапывания в ло ­ шадиный навоз герметично закупоренной человеческой спермы. "Мы будем как боги, - провозглашал Парацельс. - Мы повторим величайшее из чудес господних - сотворение человека!".

В XVIII в. благодаря развитию техники, особенно разработке часо ­ вых механизмов, интерес к подобным изобретениям возрос, хотя результа ­ ты были гораздо более "игрушечными", чем это хотелось бы Парацельсу. В середине 1750-х годов Фридрих фон Кнаус, австрийский автор, служивший при дворе Франциска I, сконструировал серию машин, которые умели держать перо и могли писать довольно длинные тексты.

Успехи механики XIX в. стимулировали еще более честолюбивые за ­ мыслы. Так, в 1830-х годах английский математик Чарльз Бэббидж заду ­ мал, правда, так и не завершив, сложный цифровой калькулятор, который он назвал Аналитической машиной; как утверждал Бэббидж, его машина в принципе могла бы рассчитывать шахматные ходы. Позднее, в 1914 г., ди ­ ректор одного из испанских технических институтов Леонардо Тор ­ рес-и-Кеведо действительно из готовил электромеханическое устройство, способное разыгрывать простейшие шахматные эндшпили почти также хоро ­ шо, как и человек.

Электронный подход.

Однако только после второй мировой войны появились устройства, казалось бы, подходящие для достижения заветной цели - моделирования разумного поведения; это были электронные цифровые вычислительные ма ­ шины. "Электронный мозг", как тогда восторженно называли компьютер, поразил в 1952 г. телезрителей США, точно предсказав результаты прези ­ дентских выборов за несколько часов до получения окончательных данных. Этот "подвиг" компьютера лишь подтвердил вывод, к которому в то время пришли многие ученые: наступит тот день, когда автоматические вычисли ­ тели, столь быстро, неутомимо и безошибочно выполняющие автоматические действия, смогут имитировать невычислительные процессы, свойственные человеческому мышлению, в том числе восприятие и обучение, распознава ­ ние образов, понимание повседневной речи и письма, принятие решений в неопределенных ситуациях, когда известны не все факты.

Многие изобретатели компьютеров и первые программисты развлека ­ лись составляя программы для отнюдь не технических занятий, как сочи ­ нение музыки, решение головоломок и игры, на первом месте здесь оказа ­ лись шашки и шахматы. Некоторые романтически настроенные программисты даже заставляли свои машины писать любовные письма.

К концу 50-х годов все эти увлечения выделились в новую более или менее самостоятельную ветвь информатики, получившую название "искусс ­ твенный интеллект". Исследования в области ИИ, первоначально сосредо ­ точенные в нескольких университетских центрах США - Массачусетском технологическом институте, Технологическом институте Карнеги в Питт ­ сбурге, Станфордском университете, - ныне ведутся во многих других университетах и корпорациях США и других стран. В общем исследователей ИИ, работающих над созданием мыслящих машин, можно разделить на две группы. Одних интересует чистая наука и для них компьютер - лишь инс ­ трумент, обеспечивающий возможность экспериментальной проверки теорий процессов мышления. Интересы другой группы лежат в области техники: они стремятся расширить сферу применения компьютеров и облегчить поль ­ зование ими. Многие представители второй группы мало заботятся о выяс ­ нении механизма мышления - они полагают, что для их работы это едва ли более полезно, чем изучение полета птиц и самолетостроения.

В настоящее время, однако, обнаружилось, что как научные так и технические поиски столкнулись с несоизмеримо более серьезными трудно ­ стями, чем представлялось первым энтузиастам. На первых порах многие пионеры ИИ верили, что через какой-нибудь десяток лет машины машины обретут высочайшие человеческие таланты. Предполагалось, что преодолев период "электронного детства" и обучившись в библиотеках всего мира, хитроумные компьютеры, благодаря быстродействию точности и безотказной памяти постепенно превзойдут своих создателей-людей. Сейчас мало кто говорит об этом, а если и говорит, то отнюдь не считает, что подобные чудеса не за горами.

Несмотря на многообещающие перспективы, ни одну из разработанных до сих пор программ ИИ нельзя назвать "разумной" в обычном понимании этого слова. Это объясняется тем, что все они узко специализированы; самые сложные экспертные системы по своим возможностям скорее напоми ­ нают дрессированных или механических кукол, нежели человека с его гиб ­ ким умом и широким кругозором. Даже среди исследователей ИИ теперь многие сомневаются, что большинство подобных изделий принесет сущест ­ венную пользу. Немало критиков ИИ считают, что такого рода ограничения вообще непреодолимы.

К числу таких скептиков относится и Хьюберт Дрейфус, профессор философии Калифорнийского университета в Беркли. С его точки зрения, истинный разум невозможно отделить от его человеческой основы, заклю ­ ченной в человеческом организме. "Цифровой компьютер - не человек, ­ говорит Дрейфус. - У компьютера нет ни тела, ни эмоций, ни потребнос ­ тей. Он лишен социальной ориентации, которая приобретается жизнью в обществе, а именно она делает поведение разумным. Я не хочу сказать, что компьютеры не могут быть разумными. Но цифровые компьютеры, зап ­ рограммированные фактами и правилами из нашей, человеческой, жизни, действительно не могут стать разумными.

Кибернетический подход.

Попытки построить машины, способные к разумному поведению, в зна ­ чительной мере вдохновлены идеями профессора МТИ Норберта Винера. Винер был убежден, что наиболее перспективны научные исследования в так называемых пограничных областях, которые нельзя конкретно отнес ­ ти к той или иной конкретной дисциплины. Они лежат где-то на стыке на ­ ук, поэтому к ним обычно не подходят столь строго. Винеру и его сотруднику Джулиану Бигелоу принадлежит разработка принципа "обратной связи", который был успешно применен при разработке нового оружия с радиолокационным наведением. Принцип обратной связи заключается в использовании информации, поступающей из окружающего ми ­ ра, для изменения поведения машины. В основу разработанных Винером и Бигелоу систем наведения были положены тонкие математические методы; при малейшем изменении отраженных от самолета радиолокационных сигна ­ лов они соответственно изменяли наводку орудий, то есть - заметив по ­ пытку отклонения самолета от курса, они тотчас расчитывали его даль ­ нейший путь и направляли орудия так, чтобы траектории снарядов и само ­ летов пересеклись.

В дальнейшем Винер разработал на принципе обратной связи теории как машинного так и человеческого разума. Он доказывал, что именно благодаря обратной связи все живое приспосабливается к окружающей сре ­ де и добивается своих целей.

Нейронный подход.

Исходя отчасти из предшествующих исследований нейронов (основных активных клеток, составляющих нервную систему животных), проведенных Маккаллохом, они с Питтсом выдвинули гипотезу, что нейроны можно упро ­ щенно рассматривать как устройства, оперирующие двоичными числами. Двоичные числа, состоящие из цифр единица и нуль, - рабочий инструмент одной из систем математической логики. Английский математик XIXв. Джордж Буль, предложивший эту остроумную систему, показал, что логи ­ ческие утверждения можно закодировать в виде единиц и нулей, где еди ­ ница соответствует истинному выссказыванию а нуль - ложному, после че ­ го этим можно оперировать как обычными числами. В 30-е годы XX в. пи ­ онеры информатики, в особенности американский ученый Клод Шеннон, по ­ няли, что двоичные единица и нуль вполне соответствуют двум состояниям электрической цепи (включено-выключено), поэтому двоичная система иде ­ ально подходит для электронно-вычислительных устройств. Маккалох и Питтс предложили конструкцию сети из электронных "нейронов" и показа ­ ли, что подобная сеть может выполнять практически любые вообразимые числовые или логические операции. Далее они предположили, что такая сеть в состоянии также обучаться, распознавать образы, обобщать, т.е. она обладает всеми чертами интеллекта.

Из этого кибернетического, или нейромодельного, подхода к машин ­ ному разуму скоро сформировался так называемый "восходящий метод" ­ движение от простых аналогов нервной системы примитивных существ, об ­ ладающих малым числом нейронов, к сложнейшей нервной системе человека и даже выше. Конечная цель виделась в создании "адаптивной сети", "са ­ моорганизующейся системы" или "обучающейся машины". Основной трудностью, с кото ­ рой столкнулся "восходящий метод" на заре своего существования, была высокая стоимость электронных элементов. Слишком дорогой оказывалась даже модель нервной системы муравья, состоящая из 20 тыс. нейронов, не говоря уже о нервной системе человека, включающей около 100 млрд. ней ­ ронов. Даже самые совершенные кибернетические модели содержали лишь неколько сотен нейронов.

Появление перцептрона.

Одним из тех, кого ничуть не испугали трудности был Фрэнк Розенб ­ лат, труды которого казалось отвечали самым заметным устремлениям ки ­ бернетиков. В середине 1958 г. им была предложена модель электронного устройства, названного им перцептроном, которое должно было бы имити ­ ровать процессы человеческого мышления. Два года спустя была проде ­ монстрирована первая действующая машина "Марк-1", которая могла нау ­ чится распознавать некоторые из букв, написанных на карточках, которые подносили к его "глазам", напоминающие кинокамеры. Перцептрон Розенб ­ лата оказался наивысшим достижением "восходящего", или нейромодельного метода создания искусственого интеллекта. Чтобы научить перцептрон способности строить догадки на основе исходных предпосылок, в нем пре ­ дусматривалась некая элементарная разновидность автономной работы или "самопрограммирования". При распознании той или иной буквы одни ее элементы или группы элементов оказываются гораздо более существеными, чем другие. Перцептрон мог научаться выделять такие характерные осо ­ бенности буквы полуавтоматически, своего рода методом проб и ошибок, напоминающим процесс обучения. Однако возможности перцептрона были ог ­ раниченными: машина не могла надежно распознавать частично закрытые буквы, а также буквы иного размера или рисунка, нежели те, которые ис ­ пользовались на этапе ее обучения.

Ведущие представители так называемого "нисходящего метода" специ ­ ализировались, в отличие от представителей "восходящего метода", в составлении для цифровых компьютеров общего назначения программ реше ­ ния задач, требующих от людей значительного интеллекта, например для игры в шахматы или поиска математических доказательств.

Интерес к кибернетике в последнее время возродился, так как сто ­ ронники "нисходящего метода" столкнулись со столь же неодолимыми труд ­ ностями. Но в основном ИИ стал синонимом нисходящего подхода, который выражался в составлении все более сложных программ для компьютеров, моделирующих сложную деятельность человеческого мозга.

Искусственный интеллект и теоретические проблемы психологии.

Можно выделить две основные линии работ по ИИ. Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" ис ­ кусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

В 1963 г. выступая на совещании по философским вопросам физиоло ­ гии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операциональ ­ ного и неоперационального в человеческой деятельности в то время этот вывод был достаточно прогрессивен и выступал против кибернетического редукционизма. Однако в последствии при сравнени операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как прменительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

В работах по искусственному интеллекту постоянно используется термин "цель". Анализ отношения средств к цели А.Ньюэлл и Г.Саймон на ­ зывают в качестве одной из "эвристик". В психологической теории дея ­ тельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стре ­ мится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъек ­ том: как на понятийном уровне, так и в форме представлений или перцеп ­ тивного образа. Это отражение может характеризоваться разной степенью ясностьи, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ,"целей", а как отмечает О.К.Тихоми ­ ров,- оценочными функциями. И у искусственных систем есть своего рода "ценностные орентации". Но специфику человеческой мотивационно-эмоцио ­ нальной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оце ­ нок, существенно также различие между словесно-логическими и эмоцио ­ нальными оценками. В существовании потребностей и мотивов видится раз ­ личие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики чело ­ веческой деятельности. Так в работе Л.П.Гурьевой показана зависи ­ мость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

Между прочим, именно недостаточная изученность процесса целеобра ­ зования нашла свое отражение в формулировании "социального заказа" для психологии со стороны исследователей ИИ, и оказала существенное стиму ­ лирующее влияние психологической науки.

Информационная теория эмоций Симонова также в значительной степе ­ ни питается аналогиями с работами систем ИИ. Кроме того проблема воле ­ вого принятия решения в психологии в некоторых работах рассматривается как формальный процесс выбора одной из множества заданных альтернатив, опуская тем самым специфику волевых процессов. В то же время, Ю.Д.Ба ­ баевой была предпринята попытка изучения возможности формализации процесса целеобразования на основе глубокого психологического анализа этого процесса в деятельности человека.

Таким образом все три традиционные области психологии - учения о познавательных, эмоциональных и волевых процессах оказались под влия ­ нием работ по ИИ, что по мнению О.К.Тихомирова привело к оформлению нового предмета психологии - как наука о переработке информации, науч ­ ность этого определения достигалась за счет "технизации" психологичес ­ кого знания.

Обращаясь к проблеме роли ИИ в обучения Л.И.Ноткин рассматри ­ вает этот процесс как одну из разновидностей взаимодействия человека с ЭВМ, и раскрывает среди перспективных возможностей те , которые напр ­ влены на создание так называемых адаптивных обучающихся систем, имити ­ рующих оперативный диалог учащегося и преподавателя-человека.

Таким образом взаимодействие между исследованиями искусс ­ твенного интеллекта и психологической наукой можно охарактеризовать как плодотворный диалог, позволяющий если не решать то хотя бы нау ­ читься задавать вопросы такого высокого философского уровня как - "Что есть человек ?".

Кибернетика и сознание. Проблемы искусственного интеллекта

Другие материалы по предмету

ДОНЕЦКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

РЕФЕРАТ ПО ФИЛОСОФИИ

"КИБЕРНЕТИКА И СОЗНАНИЕ.

ПРОБЛЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА"

факультет: экологии и химической технологии

группа: ЭП-96

студент: Морозов Валентин Владимирович

преподаватель: Сахно Анатолий Владимирович

  1. Аннотациястр. 3
  2. Кибернетикастр. 4
  3. Кибернетика и сознаниестр. 5
  4. Конкретизация понятия “искусственный интеллект”стр. 6
  5. Проблема искусственного интеллектастр. 9
  6. Заключениестр. 14
  7. Список литературыстр. 15

Кибернетика

Кибернетика возникла на стыке многих областей знания: математики, логики, семиотики, биологии и социологии.

Обобщающий характер кибернетических идей и методов сближает науку об управлении, каковой является кибернетика, с философией.

Задача обоснования исходных понятий кибернетики, особенно таких, как информация, управление, обратная связь и др. требуют выхода в более широкую, философскую область знаний, где рассматриваются атрибуты материи - общие свойства движения, закономерности познания.

Сама кибернетика как наука об управлении многое дает современному философскому мышлению. Она позволяет более глубоко раскрыть механизм самоорганизации материи, обогащает содержание категории связей, причинности, позволяет более детально изучить диалектику необходимости и случайности, возможности и действительности. Открываются пути для разработки "кибернетической" гносеологии, которая не подменяет диалектический материализм теорией познания, но позволяет уточнить, детализировать и углубить в свете науки об управлении ряд существенно важных проблем.

Возникнув в результате развития и взаимного стимулирования ряда, в недалеком прошлом слабо связанных между собой, дисциплин технического, биологического и социального профиля кибернетика проникла во многие сферы жизни.

Столь необычная "биография" кибернетики объясняется целым рядом причин, среди которых надо выделить две.

Во-первых, кибернетика имеет необычайный, синтетический характер. В связи с этим до сих пор существуют различия в трактовке некоторых ее проблем и понятий.

Во-вторых, основополагающие идеи кибернетики пришли в нашу страну с Запада, где они с самого начала оказались под влиянием идеализма и метафизики, а иногда и идеологии. То же самое, или почти то же самое происходило и у нас. Таким образом становится очевидной необходимость разработки философских основ кибернетики, освещение ее основных положений с позиции философского познания.

Осмысление кибернетических понятий с позиции философии будет способствовать более успешному осуществлению теоретических и практических работ в этой области, создаст лучшие условия для эффективной работы и научного поиска в этой области познания.

Кибернетика как перспективная область научного познания привлекает к себе все большее внимание философов. Положения и выводы кибернетики включаются в их области знания, которые в значительной степени определяют развитие современной теории познания. Как справедливо отмечают отечественные исследователи, кибернетика, достижения которой имеет громадное значение для исследования познавательного процесса, по своей сущности и содержанию должна входить в теорию познания.

Исследование методологического и гносеологического аспектов кибернетики способствует решению многих философских проблем. В их числе - проблемы диалектического понимания простого и сложного, количества и качества, необходимости и случайности, возможности и действительности, прерывности и непрерывности, части и целого. Для развития самих математики и кибернетики важное значение имеет применение к материалу этих наук ряда фундаментальных философских принципов и понятий, применение, обязательно учитывающее специфику соответствующих областей научного знания. Среди этих принципов и понятий следует особо выделить положение отражения, принцип материального единства мира конкретного и абстрактного, количества и качества, нормального и содержательного подхода к познанию и др.

Философская мысль уже много сделала в анализе аспектов и теоретико-познавательной роли кибернетики. Было показано, сколь многообещающим в философском плане является рассмотрение в свете кибернетики таких вопросов и понятий, как природа информации, цель и целенаправленность, соотношение детерминизма и теологии, соотношение дискретного и непрерывного, детерминистского и вероятностного подхода к науке.

Нужно сказать и о большом значении кибернетики для построения научной картины мира. Собственно предмет кибернетики - процессы, протекающие в системах управления, общие закономерности таких процессов.

Кибернетика и сознание

Явления, которые отображаются в таких фундаментальных понятиях кибернетики, как информация и управление, имеют место в органической природе и общественной жизни. Таким образом, кибернетику можно определить как науку об управлении и связи с живой природой в обществе и технике.

Один из важнейших вопросов, вокруг которого идут философские дискуссии - это вопрос о том, что такое информация, какова ее природа? Для характеристики природы информационных процессов необходимо кратко рассмотреть естественную основу всякой информации, а таковой естественной основой информации является присущее материи объективное свойство отражения.

Положение о неразрывной связи информации и отражения стало одним из важнейших в изучении информации и информационных процессов и признается абсолютным большинством отечественных философов.

Информация в живой природе в отличие от неживой играет активную роль, так как участвует в управлении всеми жизненными процессами.

Материалистическая теория отражения видит решение новых проблем науки и, в частности, такой кардинальной проблемы естествознания как переход от неорганической материи к органической, в использовании методологической основы диалектического материализма. Проблема заключается в том, что существует материя, способная ощущать, и материя, созданная из тех же атомов и в тоже время не обладающая этой способностью. Вопрос, таким образом поставлен вполне конкретно и, тем самым, толкает проблему к решению. Кибернетика вплотную занялась исследованием механизмов саморегуляции и самоуправления. Вместе с тем, оставаясь методически ограниченными, эти достижения оставили открытыми ряд проблем к рассмотрению которых привела внутренняя ломка кибернетики.

Сознание является не столько продуктом развития природы, сколько продуктом общественной жизни человека, общественного труда предыдущих поколений людей. Оно является существенной частью деятельности человека, посредством которой создается человеческая природа и не может быть принята вне этой природы.

Если в машинах и вообще в неорганической природе отражение есть пассивный, мертвый физико-химический, механический акт без обобщения и проникновения в сущность обобщаемого явления, то отражение в форме сознания есть, то мнению Ф.Энгельса "познание высокоорганизованной материей самой себя, проникновение в сущность, закон развития природы, предметов и явлений объективного мира".

В машине же отражение не осознанно, так как оно осуществляется без образования идеальных образов и понятий, а происходит в виде электрических импульсов, сигналов и т.п. Поскольку машина не мыслит, эта не есть та форма отражения, которая имеет место в процессе познания человеком окружающего мира. Закономерности процесса отражения в машине определяются, прежде всего, закономерностями отражения действительности в сознании человека, так как машину создает человек в целях более точного отражения действительности, и не машина сама по себе отражает действительность, а человек отражает ее с помощью машины. Поэтому отражение действительности машиной является составным элементом отражения действительности человеком. Появление кибернетических устройств приводит к возникновению не новой формы отражения, а нового звена, опосредующего отражение природы человеком.

Учение об искусственном интеллекте — разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом используемые методы не обязаны быть биологически правдоподобны. Но проблема состоит в том, что неизвестно какие вычислительные процедуры мы хотим называть интеллектуальными. А так как мы понимаем только некоторые механизмы интеллекта, то под интеллектом в пределах этой науки мы понимаем только вычислительную часть способности достигнуть целей в мире.

Но до сих пор единого ответа на вопрос чем занимается искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Обычно эти определения сводятся к следующим:

По состоянию на 2009 год ни одна из существующих компьютерных систем не приблизилась к прохождению теста.

Логический подход.Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов.

Учебной моделью систем искусственного интеллекта в 1980-х годах был принят язык и система логического программирования Пролог.

Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определенные знания как конкретные и обобщенные сведения.

В целом исследования проблем искусственный интеллект в информатике в рамках логического подхода к проектированию баз знаний и экспертных систем направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интелектуальных информационных систем.

Агентно-ориентированный подход.Последний подход, развиваемый с начала 1990-х годов называется агентно-ориентированным подходом, или подходом, основанным на использовании интеллектуальных (рациональных) агентов. Согласно этому подходу, интеллект — это вычислительная часть (грубо говоря, планирование) способности достигать поставленных перед интеллектуальной машиной целей. Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков и способной воздействовать на объекты в окружающей среде с помощью исполнительных механизмов.

Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно сильнее изучаются Алгоритмы поиска и принятия решений.

Другие подходы

Интуитивные.Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём, в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).

Первые упоминания

Хотя исследования в области искусственного интеллекта начались в 1956 году, их философские корни уходят глубоко в прошлое. Вопрос, может машина думать или нет, имеет долгую историю. Он тесно связан с различиями между дуалистическим и материалистическим взглядами. С точки зрения дуализма, мысль не является материальной (или, по крайней мере, не имеет материальных свойств), и поэтому разум нельзя объяснить только с помощью физических понятий. С другой стороны, материализм гласит, что разум можно объяснить физически, таким образом, оставляя возможность существования разумов, созданных искусственно.

Философские проблемы

-Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?

-Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?

-Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Также философии пришлось столкнуться с этические проблемы создания искусственного разума. Рассмотрим некоторые проблемы, которые могут возникнуть при и после создания ИИ. Следует отметить, что в данном реферате изложен далеко не полный перечень таких проблем.

Проблема 1. Проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение — "Терминатор". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности – трех законах роботехники:

· Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

· Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

· Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как "причинить вред". Или "допустить". Попробуйте определить, что происходит в любом случае, а что он "допустил"?

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система ИИ под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции ИИ, то можно предложить следующий вариант. Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" — "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Вывод по проблеме 1. Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а ИИ теперь является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

Читайте также: