Перспективы развития компьютерной техники реферат

Обновлено: 05.07.2024

ЭВМ становится неотъемлемой частью рабочего места, и рабочее место приобретает характер автоматизированного. Применение персональных ЭВМ позволило поднялся на новую ступень. Новые возможности, открывшиеся для анализа, обусловлены исключительными особенностями ПЭВМ: низкая стоимость, высокая производительность, надежность, простота обслуживания и эксплуатации, гибкость и автономность использования, наличие развитого программного обеспечения, диалоговый режим работы и др. Применение ПЭВМ позволяет реально повысить производительность труда персонала за счет децентрализации процесса автоматизированной обработки информации, совмещения непосредственно на рабочем месте их профессиональных зна-ний с преимуществами электронной обработки информации.

Содержание

Введение
Глава 1. История развития и современный персональный компьютер
1.1. История развития персонального компьютера
1.2. Архитектура персонального компьютера.
1.3. Классификация персональных компьютеров
1.4. Рынок персональных компьютеров Росии
Глава 2. Использование персонального компьютера в различных сферах
2.1. Персональный компьютер в деятельности государственных органов
2.2. Компьютеры в бизнесе
Глава 3. Перспективы развития компьютерной техники и ее применение
3.1. Эволюция компьютерной техники
3.2. Новые технологии в компьютерной технике
3.3. Перспективы использования нейрокомпьютеров
Заключение
Глоссарий
Список литературы

Прикрепленные файлы: 1 файл

Диплом черновик.doc

Тема: Перспективы развития ПК

Глава 1. История развития и современный персональный компьютер

1.1. История развития персонального компьютера

1.2. Архитектура персонального компьютера.

1.3. Классификация персональных компьютеров

1.4. Рынок персональных компьютеров Росии

Глава 2. Использование персонального компьютера в различных сферах

2.1. Персональный компьютер в деятельности государственных органов

2.2. Компьютеры в бизнесе

Глава 3. Перспективы развития компьютерной техники и ее применение

3.1. Эволюция компьютерной техники

3.2. Новые технологии в компьютерной технике

3.3. Перспективы использования нейрокомпьютеров

Вычислительная техника прочно вошла в жизнь и профессиональную деятельность современного человека. Ее применение поистине многообразно и всеобъемлюще. Информатика, включающая в себя все, что связано с применением вычислительной техники, служит в наши дни мощным катализатором научно-технического прогресса. Именно развитию средств вычислительной техники мы обязаны успехами, достигнутыми в автоматизации производственных процессов, в разработке новых технологий, в повышении эффективности труда и управления, в совершенствовании системы образования и в ускорении подготовки кадров.1 Значение персональных компьютеров в современной жизни невозможно недооценить. Сейчас, миновав рубеж нового века и тысячелетия, человечество как никогда близко подошло к заветной своей мечте – иметь верных и умных механических помощников на любой случай жизни. Для работы, для отдыха и развлечений, для образования незаменим стал персональный компьютер – величайшая игрушка человечества, променянная на возможность космической экспансии и развития космонавтики.

Сегодня в мире - около миллиарда персональных компьютеров. Значительная часть населения планеты просто не представляет своей жизни без умных машин, позволяющих бродить по просторам интернета, писать и получать письма, хранить огромные количества информации, слушать музыку, смотреть фильмы, редактировать фотографии и многое-многое другое. Трудно теперь найти хоть одну сферу человеческой деятельности, где не применялись бы компьютеры. От медицины до научных исследований, от управления движением автопотоков до просмотра видеофильмов в уютной домашней обстановке, от мощных вычислений до расслабляющих развлечений. В огромном парке эксплуатируемых на сегодняшний день вычислительных систем особую, уникальную роль занимают компьютеры персональные. В офисах и конторах, в домах и гостиничных номерах стоят далекие наследники тех первых, собранных в гаражах и полуподвалах, компьютеров Apple, Altair и IMSAI. Трудно представить, но каких-то тридцать лет едва ли нашелся бы провидец, посмевший утверждать, что к исходу двадцатого века неуклюжие компьютеры из фантастических романов перекочуют в нашу повседневную жизнь, многократно уменьшатся в размерах, а в возможностях своих, наоборот, сильно возрастут. Что ж, не впервые самые смелые прогнозы фантастов жизнь превосходит в сотни раз.

Отдавая дань прогрессу, нельзя все же упустить из виду, что пути развития не были прямыми. Отнюдь не сразу компьютеры пробили себе широкую дорогу на рынки, не всегда удачной была судьба как отдельных людей, так и целых корпораций, сделавших немало для развития компьютерной техники. Лишь в знак уважения к этим людям стоило б иной раз оборачиваться назад, окидывать взглядом пройденный тридцатилетний путь. Скольких ошибок можно избежать, сколько любопытного почерпнуть, изучая не то что краткую – кратчайшую по меркам даже человечества – историю зарождения, развития и триумфального шествия по планете персональных компьютеров.

Актуальность исследования настоящей работы обусловлена стремительным развитием компьютерной техники и проникновением ее во все сферы жизни общества. Компьютер– машина для проведения вычислений. При помощи вычислений компьютер способен обрабатывать информацию по заранее определённому алгоритму. Кроме того, большинство компьютеров способны сохранять информацию и осуществлять поиск информации, выводить информацию на различные виды устройств выдачи информации. Своё название компьютеры получили по своей основной функции – проведению вычислений. Однако, по мнению целого ряда исследователей – основные функции компьютеров – обработка информации и управление.

В большинстве современных компьютеров проблема сначала описывается в математических терминах, при этом вся необходимая информация представляется в двоичной форме (в виде единиц и нулей), после чего действия по её обработке сводятся к применению простой алгебры логики. Поскольку практически вся математика может быть сведена к выполнению булевых операций, достаточно быстрый электронный компьютер может быть применим для решения большинства математических задач (а также и большинства задач по обработке информации, которые могут быть легко сведены к математическим). Как видно из приведенных доводов, применение ЭВМ повышает эффективность аналитической работы. Это достигается за счет сокращения сроков проведения анализа; более полного охвата влияния факторов на результаты деятельности; замены приближенных или упрощенных расчетов точными вычислениями; постановки и решения новых многомерных задач анализа, практически не выполнимых вручную и традиционными методами.

ЭВМ становится неотъемлемой частью рабочего места, и рабочее место приобретает характер автоматизированного. Применение персональных ЭВМ позволило поднялся на новую ступень. Новые возможности, открывшиеся для анализа, обусловлены исключительными особенностями ПЭВМ: низкая стоимость, высокая производительность, надежность, простота обслуживания и эксплуатации, гибкость и автономность использования, наличие развитого программного обеспечения, диалоговый режим работы и др. Применение ПЭВМ позволяет реально повысить производительность труда персонала за счет децентрализации процесса автоматизированной обработки информации, совмещения непосредственно на рабочем месте их профессиональных зна-ний с преимуществами электронной обработки информации.

Наиболее эффективной организационной формой использования ПЭВМ является создание на их базе автоматизированных рабочих мест (АРМ). Таким образом, применение компьютерной техники и персональных компьютеров в частности позволяет повысить эффективность решения целого ряда задач. Развитие ЭВМ не стоит на месте (например, закон Мура), а находится в состоянии постоянной динамики. В этой связи возникает проблема понимания не только тенденций, но и перспектив развития ЭВМ и персональных компьютеров (ПК). В работе использованы нормативно–правовые акты РФ, труды М. Л. Гуткиной, С. Асмакова, Н. Елмановой, С. Пахомова, А. Прохорова, О. Татарникова, А. Дмитриева, Д. Ерохина, С. Сорокина, В. Гарсия, Л. Теплицкого, Э. Пройдакова, Н. Горнец, В.Э. Фигурнова.

Глава 1. История развития и современный персональный компьютер

1.1. История развития персонального компьютера

Вычислительная техника не сразу достигла высокого уровня. В её развитии отмечают предысторию и четыре поколения ЭВМ. Предыстория начинается в глубокой древности с различных приспособлений для счета (абак, счеты), а первая счетная машина появилась лишь в 1642г. Её изобрел французский математик Паскаль. Построенная на основе зубчатых колёс, она могла суммировать десятичные числа. Все четыре арифметические действия выполняла машина, созданная в 1673г. немецким математиком Лейбницем. Она стала прототипом арифмометров, использовавшихся с 1820г. до 60-х годов ХХ века. Впервые идея программно-управляемой счетной машины, имеющей арифметическое устройство, устройства управления, ввода и печати (хотя и использующей десятичную систему счисления), была выдвинута в 1822г. английским математиком Бэббиджем. Его проект опережал технические возможности своего времени и не был реализован. Лишь в 40-х годах ХХ века удалось создать программируемую счетную машину, причем на основе электромеханических реле, которые могут пребывать в одном из двух устойчивых состояний: “включено” и “выключено”. Это технически проще, чем пытаться реализовать десять различных состояний, опирающихся на обработку информации на основе десятичной, а не двоичной системы счисления. Во второй половине 40-х годов появились первые электронно-вычислительные машины, элементной базой которых были электронные лампы. Основные характеристики ЭВМ разных поколений приведены в таблице 1.

С каждым новым поколением ЭВМ увеличивались быстродействие и надежность их работы при уменьшении стоимости и размеров, совершенствовались устройства ввода и вывода информации. В соответствии с трактовкой компьютера – как технической модели информационной функции человека – устройства ввода приближаются к естественному для человека восприятию информации (зрительному, звуковому) и, следовательно, операция по её вводу в компьютер становится всё более удобной для человека.

Современный компьютер – это универсальное, многофункциональное, электронное автоматическое устройство для работы с информацией. Компьютеры в современном обществе взяли на себя значительную часть работ, связанных с информацией. По историческим меркам компьютерные технологии обработки информации ещё очень молоды и находятся в самом начале своего развития. Ещё ни одно государство на Земле не создало информационного общества. Ещё много потоков информации, не вовлеченных в сферу действия компьютеров. Компьютерные технологии сегодня преобразуют или вытесняют старые, докомпьютерные технологии обработки информации. Текущий этап завершится построением в индустриально развитых странах глобальных всемирных сетей для хранения и обмена информацией, доступных каждой организации и каждому члену общества. Надо только помнить, что компьютерам следует поручать то, что они могут делать лучше человека, и не употреблять во вред человеку, обществу.

Начать нужно с действительно первых, а точнее – с самого первого персонального компьютера. Но, описывая его, невозможно забыть о том, какие события послужили причиной его создания. Волей-неволей мы должны ознакомиться с ситуацией, сложившейся на рынке полупроводниковой промышленности к середине семидесятых годов двадцатого века. Впрочем, рынок этот на тот момент был мал и скуден. Царствовали на нем несколько крупных игроков, производящие большие и чрезвычайно дорогие компьютеры для нужд военных, научных, крупных экономических и банковских систем. Рынка вычислительной техники для, как бы мы сказали сегодня, конечного потребителя, попросту не существовало. Бесплотен был мир и дух будущих свершений витал над ним.

Не всем знакомы имена тех, кто перевернул мир. Что ж, пришло время познакомиться с ними. В первую очередь, это Роберт Нойс (Bob Noyce), человек, придумавший, как разместить на одной подложке несколько транзисторов и создавший таким образом первую интегральную микросхему. Произошло это в 1959-м году. Это Гордон Мур (Gordon Moore), основавший вместе с Нойсом фирму Intel. Начинала фирма с разработки биполярной статической оперативной памяти. Это приносило небольшой доход, но едва ли Intel превратилась бы в себя сегодняшнюю, не произойди одно важное событие. К руководству Intel обратилась японская фирма Busicom. Она занималась производством калькуляторов и предлагала заказ на двенадцать различных микросхем. На тот момент у Intel не было возможности вести разработку такого количества продуктов сразу. Все могло закончиться, не начавшись, если бы не один из инженеров фирмы. Звали его Тед Хофф (Ted Hoff), и он предложил изящное решение: если мы не можем разрабатывать двенадцать микросхем сразу, почему бы нам не разработать одну единственную универсальную микросхему, которая сможет заменить все двенадцать. Было принято решение профинансировать эту перспективную разработку, и под руководством Федерико Феджина (Federico Faggin) была проведена вся работа по воплощению идеи в жизнь.

Но от микропроцессора до компьютера предстоял еще один длинный шаг. И основой первого персонального компьютера стал другой процессор Intel – 8080, разработанный в 1974 году. В отличие от первого 4004 этот процессор имел тактовую частоту 2 МГц и мог адресовать 64 КБ памяти (4004 – только 640 байт).

Ситуация, сложившаяся на рынке электронных компонентов, благоприятствовала появлению первого персонального компьютера, и вопрос был лишь в том, кто первым догадается объединить различные компоненты в единый блок. Первой стала фирма MITS.

Для понимания истории компьютерной техники введённая классификация имела, по крайней мере, два аспекта: первый - вся деятельность, связанная с компьютерами, до создания компьютеров ENIAC рассматривалась как предыстория; второй - развитие компьютерной техники определялось непосредственно в терминах технологии аппаратуры и схем.

Переходя к оценке и рассмотрению различных поколений, необходимо прежде всего заметить, что поскольку процесс создания компьютеров происходил и происходит непрерывно ( в нём участвуют многие разработчики из многих стран, имеющие дело с решением различных проблем ), затруднительно, а в некоторых случаях и бесполезно, пытается точно установить, когда то или иное поколение начиналось или заканчивалось.

* Данная работа не является научным трудом, не является выпускной квалификационной работой и представляет собой результат обработки, структурирования и форматирования собранной информации, предназначенной для использования в качестве источника материала при самостоятельной подготовки учебных работ.

Институт государственного и муниципального управления

Реферат по курсу

”Концепция современного естествознания”

Выполнил: слушатель группы З-21 Копылов О.В.

Проверил: к.х.н., доцент

Будний Игорь Владимирович

Перспективы развития компьютерной техники

Компьютеры на основе ДНК

Проблема — не в новых идеях, а в том,

чтобы избавиться от старых,

которые врастают в тех, кого воспитывали,

как воспитывали большинство из нас,

в каждый уголок наших умов.

В свое время люди верили, что самолет никогда не сможет преодолеть звуковой барьер, так как это должно его разрушить. Но октябрьским утром 1947 г. мир впервые услышал столь привычный сейчас любому летчику хлопок — Чак Инджер на экспериментальном истребителе сумел обогнать звук. Скромного калужского учителя физики Циолковского, разработавшего в начале века проект полета в космос с помощью реактивного двигателя, все считали в лучшем случае наивным мечтателем (а чаще просто сумасшедшим). Но прошло всего полвека, и первые ракеты взмыли в небо, доказав, что скепсис в отношении творческих возможностей человечества совершенно неуместен.

В этом реферате мне хотелось бы описать те перспективы, которые открывает перед нами дальнейшее развитие технологии на имеющейся теоретической базе. Из множества футуристических направлений я опишу всего несколько, но наиболее многообещающих и интересных. Мы увидим, каким ярким и необычным может оказаться наше будущее даже с учетом все тех же объективных пределов. И не стоит это воспринимать просто как занимательную сказку: сравните наши достижения в начале XIX и XX вв. — вы поймете, что самые смелые прогнозы (если они не противоречат фундаментальным законам природы) рано или поздно становятся реальностью.

Однако выход из тупика имеется, причем обеспеченный именно тем, из-за чего мы в нем оказались, — квантовой природой вещества. Исторический призыв Ричарда Фейнмана ответить на вопрос, какие преимущества могут дать вычислительные системы на квантовых элементах, привлек в эту область множество талантливых ученых, что обеспечило ее быстрый прогресс. На сегодняшний день для построения квантового компьютера сделано так много, что можно смело прогнозировать начало его промышленного выпуска уже в первой четверти наступившего века.

Вопреки досужему мнению, при решении большинства задач квантовый компьютер не будет работать быстрее традиционного. Более того, на выполнение одного рабочего хода (понятие тактовой частоты к нему неприменимо) ему понадобится существенно больше времени. Однако для квантового бита (кубита) характерно понятие суперпозиции: кубит в одну единицу времени равен и 0, и 1, а классический бит — либо 0, либо 1. Подобное свойство квантовых частиц одновременно находиться в нескольких состояниях обеспечивает параллелизм квантовых вычислений, что делает их в ряде задач эффективнее используемых сейчас технологий. Например, если квантовая память состоит из двух кубитов, то мы потенциально можем одновременно (!) работать со всеми ее состояниями: 00, 01, 10, 11. Таким образом, если в полупроводниковом процессоре одна операция может изменить до L переменных, то в квантовом регистре преобразуется до 2-1 переменных. А из этого следует, что в случае задачи, идеально использующей его специфику, квантовый компьютер будет в 2 LL /L раз быстрее, чем классический.

На данном этапе известно всего несколько задач, решение которых облегчится с появлением квантового компьютера. Но так как они исключительно важны, их стоит упомянуть.

Исторически первым квантовым алгоритмом стал разработанный в 1995 г. американским математиком Питером Шором из Bell Labs (из ее стен вышло 12 нобелевских лауреатов по физике) алгоритм быстрой факторизации больших чисел. Его появление немало напугало банкиров и генералов от спецслужб, и вот почему. Все современные криптографические системы строятся исходя из предположения, что разложить на простые множители достаточно длинное число невозможно. Для того чтобы решить подобную задачу для N-битового двоичного числа, современным компьютерам требуется 2 N единиц времени. А квантовый компьютер, использующий алгоритм Шора, справится с ней за время N 3 . Так, на поиск ключа к шифру на основе разбиения на простые множители 300-разрядного числа мощнейшая из существующих ЭВМ затратила бы около миллиона лет, а на подобную работу для 1000-разрядного числа ей понадобится 10 25 лет (это время в миллиарды раз превосходит возраст нашей Вселенной). Квантовому же компьютеру на то, чтобы просчитать эту задачу, достаточно всего нескольких часов.

Значительный эффект от параллелизма вычислений квантового компьютера возможен и в такой важной задаче, как организация поиска в несортированной базе данных. Созданный Ловом Гровером, коллегой Шора из Bell Labs, алгоритм в наихудшем случае для нахождения нужного объекта потребует N 1/2 запросов, где N — число записей в базе. То есть если классическому компьютеру для анализа 1000 записей понадобится 1000 же логических шагов, то квантовому вычислительному устройству хватит и 30. Таким образом, количество запросов окажется значительно меньше, чем будет проанализировано переменных. Фантастично, не правда ли?

Р. Фейнман указал на возможность использования квантового компьютера для расчета параметров квантовых систем. Квантовая система — это некоторый объект, свойства и особенности которого описываются квантовыми закономерностями. Типичная задача из этой области — расчет распределения электронной плотности в молекуле. Решить ее при помощи обычного компьютера невозможно из-за экспоненциального возрастания числа состояний системы с увеличением количества частиц. Квантовые же вычислительные устройства, используя возможность одновременной обработки большого числа переменных, будут справляться с ней с легкостью. А это позволит нам, например, моделировать молекулы лекарств, что поможет победить неизлечимые сейчас заболевания.

Вот, в общем-то, и все. Как видите, квантовому компьютеру пока уготована исключительно узкая специализация. Однако вытеснить своего полупроводникового собрата у него все-таки есть шанс. Мы можем рассчитывать на широкое применение квантовых компьютеров в связи с тем, что математики умеют весьма ловко сводить алгоритмы одних типов к другим, равносложным. Так что решение проблемы искусственного интеллекта, новый уровень работы с графикой и видео, прорыв в математическом моделировании — все это может быть обеспечено появлением квантовых вычислительных систем.

Первый практический успех по построению квантового компьютера был достигнут в 1998 г. компанией IBM, сотрудники которой сумели создать двухкубитовую машину из молекулы хлороформа. Продолженные исследования позволили им объявить в 2001 г. о серьезной вехе на пути развития информационных технологий: созданный ими семикубитовый квантовый компьютер решил задачу о факторизации числа 15 при помощи алгоритма Шора, разложив его на 3 и 5.

На сегодняшний день в десятках научно-исследовательских центров по всему миру ведутся работы по реализации квантового компьютера на базе органических молекул и сверхпроводящих колец, на атомах фосфора, встроенных в кремниевую пластину, и квантовом эффекте Холла, джозефсоновском контакте и мессбауэровских ядрах. И хотя пока успехи впечатляют лишь специалистов, вера людей в победу и их целеустремленность заставляют надеяться — будущее будет выиграно нами!

Нанотехнологии и молетроника

Любой из известных нам предметов — всего лишь скопление атомов в пространстве. И будет ли это алмаз или горстка пепла, булыжник или чип компьютера, труха или спелый плод, определяется только способом их упорядочивания. Расположение атомов друг относительно друга порождает такие понятия, как дешевое и драгоценное, обычное и уникальное, здоровое и больное. Наше умение упорядочивать атомы лежит в основе любой технологии. В процессе развития цивилизации люди учились управлять все меньшими и меньшими группами атомов. Мы прошли долгий путь от каменных наконечников для стрел до процессоров, умещающихся в игольном ушке. Но наши технологии все еще грубы, и пока мы вынуждены оперировать большими, плохо управляемыми группами атомов. По этой причине наши компьютеры глупы, машины непрерывно ломаются, молекулы в наших клетках неизбежно приходят в беспорядок, уносящий сначала здоровье, а затем и жизнь. Настоящий же прорыв в эволюции науки произойдет только тогда, когда мы научимся управлять отдельными атомами.

Когда говорят о нанотехнологиях, подразумевается несколько достаточно разрозненных по целям и планируемому времени реализации научных направлений. Одно из них, работающее над качественным переходом традиционной полупроводниковой электроники с микро- на наноуровень, хорошо освещено в периодической литературе. Успехи этих работ значительны уже сегодня, но, ввиду неразрешимости ряда проблем, связанных с размерными эффектами, неизбежно возникающими при достижении транзисторами величины 30—40 нм, очевидна необходимость поиска альтернативной технологии. Одним из вариантов является молекулярная электроника, или молетроника.

Компьютеры на основе ДНК.

Основная идея, которая используется при создании ДНК-компьютеров, следующая: для каждой из переменных (определяющих, например, путь) синтезируется уникальная последовательность оснований; затем, будучи смешаны в достаточном количестве (триллионы молекул), эти переменные соединяются в варианты. Исходя из правила больших чисел, всех вариантов будет приблизительно поровну. Остается только определить, в каком из них переменные не повторяются. Это самая сложная проблема, решаемая при помощи многоступенчатой экстракции, хроматографии и других химических методов.

Преимущество у ДНК-компьютера такое же, как и у квантового: параллелизм вычислений. То есть многие из не решаемых современными вычислительными устройствами проблем (по причине экспоненциальной сложности) будут для него полиномиально сложными, а значит, вполне доступными. В будущем проектировать и создавать ДНК-компьютеры начнут непосредственно в живых клетках, что позволит выполнять в них цифровые программы, взаимодействующие с естественными биохимическими процессами.

Хотя все сказанное похоже на отрывок из фантастического романа, многое из этого уже почти реальность. Первые молекулярные схемы уже существуют, и в текущем десятилетии должно начаться их серийное производство. Первый же полноценный молекулярный компьютер появится, по прогнозам экспертов, в 2015—2020 гг.

В далеких 40-х Джон фон Нейман 4 , создатель концепции современного компьютера, был абсолютно уверен, что повышение тактовой частоты до мегагерц позволит машинам мыслить не хуже человека. Однако шли годы, мощности ЭВМ все возрастали, над проблемой искусственного интеллекта билось все больше народу, создавались специальные языки (Lisp и Prolog) и машинные архитектуры, соответствующие специальности появились во всех университетах, — но научить компьютеры думать так и не удалось.

Правда ИИ нашел свои области применения, став важным повседневным инструментом для решения некоторых типов задач. Что же нужно, чтобы научить компьютер думать?

Особенность квантовой реальности, являющейся ее принципиальная нелокальность и неопределенность. Рассмотрение технологий, которые работают на уровне отдельных атомов и молекул и называются нанотехнологиями. Создание вычислительных устройств на базе ДНК.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 30.07.2010
Размер файла 33,6 K

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Перспективы развития компьютерной техники

Проблема - не в новых идеях, а в том, чтобы избавиться от старых, которые врастают в тех, кого воспитывали, как воспитывали большинство из нас, в каждый уголок наших умов.

Джон М. Кинз

Однако, как это ни грустно, там, где действительно достигнем физических пределов, мы не сможем продвинуться дальше ни на шаг. Мы бессильны перед законами природы, никакие наши приборы и опыты, молитвы и приказы не заставят их отступить ни на йоту. Уже в ближайшие годы святейшая догма мира высоких технологий - закон Мура. В 1965 г соучредитель фирмы Intel Гордон Мур предсказал, что плотность транзисторов в интегральных схемах будет удваиваться каждый год Позднее его прогноз, названный законом Мура, был скорректирован на 18 месяцев. В течение трех последних десятилетий закон Мура выполнялся с замечательной точностью. Не только плотность транзисторов, но и производительность микропроцессоров удваивается каждые полтора года (об удвоении плотности транзисторов в процессорах каждые полтора года) станет просто занимательным историческим фактом. Полупроводниковые технологии отживают свое -- сейчас очевидно, что частоту в 30--40 ГГц они не перешагнут никогда. Бешеная гонка за тактовой частотой заставит нас научиться считать на атомах и молекулах -- это и станет концом эволюции нашей цивилизации. Современная физика жестко и однозначно говорит, что путешествовать к звездам или перемещаться в пространстве с помощью телепортации мы никогда не сможем, если в доступной нам части реальности мы и в самом деле уже открыли абсолютно все.

В свое время люди верили, что самолет никогда не сможет преодолеть звуковой барьер, так как это должно его разрушить. Но октябрьским утром 1947 г. мир впервые услышал столь привычный сейчас любому летчику хлопок -- Чак Инджер на экспериментальном истребителе сумел обогнать звук. Скромного калужского учителя физики Циолковского, разработавшего в начале века проект полета в космос с помощью реактивного двигателя, все считали в лучшем случае наивным мечтателем (а чаще просто сумасшедшим). Но прошло всего полвека, и первые ракеты взмыли в небо, доказав, что скепсис в отношении творческих возможностей человечества совершенно неуместен.

В этом реферате мне хотелось бы описать те перспективы, которые открывает перед нами дальнейшее развитие технологии на имеющейся теоретической базе. Из множества футуристических направлений я опишу всего несколько, но наиболее многообещающих и интересных. Мы увидим, каким ярким и необычным может оказаться наше будущее даже с учетом все тех же объективных пределов. И не стоит это воспринимать просто как занимательную сказку: сравните наши достижения в начале XIX и XX вв. -- вы поймете, что самые смелые прогнозы (если они не противоречат фундаментальным законам природы) рано или поздно становятся реальностью.

Квантовый компьютер

Однако выход из тупика имеется, причем обеспеченный именно тем, из-за чего мы в нем оказались, -- квантовой природой вещества. Исторический призыв Ричарда Фейнмана ответить на вопрос, какие преимущества могут дать вычислительные системы на квантовых элементах, привлек в эту область множество талантливых ученых, что обеспечило ее быстрый прогресс. На сегодняшний день для построения квантового компьютера сделано так много, что можно смело прогнозировать начало его промышленного выпуска уже в первой четверти наступившего века.

Вопреки досужему мнению, при решении большинства задач квантовый компьютер не будет работать быстрее традиционного. Более того, на выполнение одного рабочего хода (понятие тактовой частоты к нему неприменимо) ему понадобится существенно больше времени. Однако для квантового бита (кубита) характерно понятие суперпозиции: кубит в одну единицу времени равен и 0, и 1, а классический бит -- либо 0, либо 1. Подобное свойство квантовых частиц одновременно находиться в нескольких состояниях обеспечивает параллелизм квантовых вычислений, что делает их в ряде задач эффективнее используемых сейчас технологий. Например, если квантовая память состоит из двух кубитов, то мы потенциально можем одновременно (!) работать со всеми ее состояниями: 00, 01, 10, 11. Таким образом, если в полупроводниковом процессоре одна операция может изменить до L переменных, то в квантовом регистре преобразуется до 2 L -1 переменных. А из этого следует, что в случае задачи, идеально использующей его специфику, квантовый компьютер будет в 2 L /L раз быстрее, чем классический.

На данном этапе известно всего несколько задач, решение которых облегчится с появлением квантового компьютера. Но так как они исключительно важны, их стоит упомянуть.

Исторически первым квантовым алгоритмом стал разработанный в 1995 г. американским математиком Питером Шором из Bell Labs (из ее стен вышло 12 нобелевских лауреатов по физике) алгоритм быстрой факторизации больших чисел. Его появление немало напугало банкиров и генералов от спецслужб, и вот почему. Все современные криптографические системы строятся исходя из предположения, что разложить на простые множители достаточно длинное число невозможно. Для того чтобы решить подобную задачу для N-битового двоичного числа, современным компьютерам требуется 2 N единиц времени. А квантовый компьютер, использующий алгоритм Шора, справится с ней за время N 3 . Так, на поиск ключа к шифру на основе разбиения на простые множители 300-разрядного числа мощнейшая из существующих ЭВМ затратила бы около миллиона лет, а на подобную работу для 1000-разрядного числа ей понадобится 10 25 лет (это время в миллиарды раз превосходит возраст нашей Вселенной). Квантовому же компьютеру на то, чтобы просчитать эту задачу, достаточно всего нескольких часов.

Значительный эффект от параллелизма вычислений квантового компьютера возможен и в такой важной задаче, как организация поиска в несортированной базе данных. Созданный Ловом Гровером, коллегой Шора из Bell Labs, алгоритм в наихудшем случае для нахождения нужного объекта потребует N 1/2 запросов, где N -- число записей в базе. То есть если классическому компьютеру для анализа 1000 записей понадобится 1000 же логических шагов, то квантовому вычислительному устройству хватит и 30. Таким образом, количество запросов окажется значительно меньше, чем будет проанализировано переменных. Фантастично, не правда ли?

Р. Фейнман указал на возможность использования квантового компьютера для расчета параметров квантовых систем. Квантовая система -- это некоторый объект, свойства и особенности которого описываются квантовыми закономерностями. Типичная задача из этой области -- расчет распределения электронной плотности в молекуле. Решить ее при помощи обычного компьютера невозможно из-за экспоненциального возрастания числа состояний системы с увеличением количества частиц. Квантовые же вычислительные устройства, используя возможность одновременной обработки большого числа переменных, будут справляться с ней с легкостью. А это позволит нам, например, моделировать молекулы лекарств, что поможет победить неизлечимые сейчас заболевания.

Вот, в общем-то, и все. Как видите, квантовому компьютеру пока уготована исключительно узкая специализация. Однако вытеснить своего полупроводникового собрата у него все-таки есть шанс. Мы можем рассчитывать на широкое применение квантовых компьютеров в связи с тем, что математики умеют весьма ловко сводить алгоритмы одних типов к другим, равносложным. Так что решение проблемы искусственного интеллекта, новый уровень работы с графикой и видео, прорыв в математическом моделировании -- все это может быть обеспечено появлением квантовых вычислительных систем.

Первый практический успех по построению квантового компьютера был достигнут в 1998 г. компанией IBM, сотрудники которой сумели создать двухкубитовую машину из молекулы хлороформа. Продолженные исследования позволили им объявить в 2001 г. о серьезной вехе на пути развития информационных технологий: созданный ими семикубитовый квантовый компьютер решил задачу о факторизации числа 15 при помощи алгоритма Шора, разложив его на 3 и 5.

На сегодняшний день в десятках научно-исследовательских центров по всему миру ведутся работы по реализации квантового компьютера на базе органических молекул и сверхпроводящих колец, на атомах фосфора, встроенных в кремниевую пластину, и квантовом эффекте Холла, джозефсоновском контакте и мессбауэровских ядрах. И хотя пока успехи впечатляют лишь специалистов, вера людей в победу и их целеустремленность заставляют надеяться -- будущее будет выиграно нами!

Нанотехнологии и молетроника

Любой из известных нам предметов -- всего лишь скопление атомов в пространстве. И будет ли это алмаз или горстка пепла, булыжник или чип компьютера, труха или спелый плод, определяется только способом их упорядочивания. Расположение атомов друг относительно друга порождает такие понятия, как дешевое и драгоценное, обычное и уникальное, здоровое и больное. Наше умение упорядочивать атомы лежит в основе любой технологии. В процессе развития цивилизации люди учились управлять все меньшими и меньшими группами атомов. Мы прошли долгий путь от каменных наконечников для стрел до процессоров, умещающихся в игольном ушке. Но наши технологии все еще грубы, и пока мы вынуждены оперировать большими, плохо управляемыми группами атомов. По этой причине наши компьютеры глупы, машины непрерывно ломаются, молекулы в наших клетках неизбежно приходят в беспорядок, уносящий сначала здоровье, а затем и жизнь. Настоящий же прорыв в эволюции науки произойдет только тогда, когда мы научимся управлять отдельными атомами.

Когда говорят о нанотехнологиях, подразумевается несколько достаточно разрозненных по целям и планируемому времени реализации научных направлений. Одно из них, работающее над качественным переходом традиционной полупроводниковой электроники с микро- на наноуровень, хорошо освещено в периодической литературе. Успехи этих работ значительны уже сегодня, но, ввиду неразрешимости ряда проблем, связанных с размерными эффектами, неизбежно возникающими при достижении транзисторами величины 30--40 нм, очевидна необходимость поиска альтернативной технологии. Одним из вариантов является молекулярная электроника, или молетроника.

Компьютеры на основе ДНК

Основная идея, которая используется при создании ДНК-компьютеров, следующая: для каждой из переменных (определяющих, например, путь) синтезируется уникальная последовательность оснований; затем, будучи смешаны в достаточном количестве (триллионы молекул), эти переменные соединяются в варианты. Исходя из правила больших чисел, всех вариантов будет приблизительно поровну. Остается только определить, в каком из них переменные не повторяются. Это самая сложная проблема, решаемая при помощи многоступенчатой экстракции, хроматографии и других химических методов.

Преимущество у ДНК-компьютера такое же, как и у квантового: параллелизм вычислений. То есть многие из не решаемых современными вычислительными устройствами проблем (по причине экспоненциальной сложности) будут для него полиномиально сложными, а значит, вполне доступными. В будущем проектировать и создавать ДНК-компьютеры начнут непосредственно в живых клетках, что позволит выполнять в них цифровые программы, взаимодействующие с естественными биохимическими процессами.

Хотя все сказанное похоже на отрывок из фантастического романа, многое из этого уже почти реальность. Первые молекулярные схемы уже существуют, и в текущем десятилетии должно начаться их серийное производство. Первый же полноценный молекулярный компьютер появится, по прогнозам экспертов, в 2015--2020 гг.

Искусственный интеллект (ИИ)

В далеких 40-х Джон фон Нейман, создатель концепции современного компьютера, был абсолютно уверен, что повышение тактовой частоты до мегагерц позволит машинам мыслить не хуже человека. Однако шли годы, мощности ЭВМ все возрастали, над проблемой искусственного интеллекта билось все больше народу, создавались специальные языки (Lisp и Prolog) и машинные архитектуры, соответствующие специальности появились во всех университетах, -- но научить компьютеры думать так и не удалось.

Правда ИИ нашел свои области применения, став важным повседневным инструментом для решения некоторых типов задач. Что же нужно, чтобы научить компьютер думать?

Оптимистичный вывод

Литература

1. Авдеев Р. Ф. Философия информационной цивилизации. - М., 2006.

2. Белокуров В. В., Тимофеевская О. Д., Хрусталев О. А. Квантовая телепортация - обыкновенное чудо. - Ижевск, 2000.

3. Винер Н. Кибернетика. - М., 1968.

4. Дирак А. Принципы квантовой механики. - М., 1989.

5. Петрушенко Л. А. Самодвижение материи в свете кибернетики. - М., 1971.

6. Фейнман Р. Моделирование физики на компьютерах. Квантовый компьютер и квантовые вычисления. - Ижевск, 2003.

На протяжении жизни всего лишь одного поколения рядом с человеком вырос странный новый вид: вычислительные и подобные им машины, с которыми, как он обнаружил, ему придется делить мир.

Ни история, ни философия, ни здравый смысл не могут подсказать нам, как эти машины повлияют на нашу жизнь в будущем, ибо они работают совсем не так, как машины, созданные в эру промышленной революции.

Компьютеры появились очень давно в нашем мире, но только в последнее время их начали так усиленно использовать во многих отраслях человеческой жизни. Ещё десять лет назад было редкостью увидеть какой-нибудь персональный компьютер — они были, но были очень дорогие, и даже не каждая фирма могла иметь у себя в офисе компьютер. А теперь? Теперь в каждом третьем доме есть компьютер, который уже глубоко вошёл в жизнь самих обитателей дома.

Сама идея создания искусственного интеллекта появилась очень давно, но только в 20 столетии её начали приводить в исполнение. Сначала появились огромные компьютеры, которые были зачастую размером с огромный дом. Использование таких махин, как вы сами понимаете, было не очень удобно. Но что поделаешь? Но мир не стоял на одном месте эволюционного развития — менялись люди, менялась их Среда обитания, и вместе с ней менялись и сами технологии, всё больше совершенствуясь. И компьютеры становились всё меньше и меньше по своим размерам, пока не достигли сегодняшних размеров.

Современные вычислительные машины представляют одно из самых значительных достижений человеческой мысли, влияние, которого на развитие научно-технического прогресса трудно переоценить. Области применения ЭВМ непрерывно расширяются. Этому в значительной степени способствует распространение персональных ЭВМ, и особенно микроЭВМ.

За время, прошедшее с 50-х годов, цифровая ЭВМ превратилась из “волшебного”, но при этом дорогого, уникального и перегретого нагромождения электронных ламп, проводов и магнитных сердечников в небольшую по размерам машину - персональный компьютер - состоящий из миллионов крошечных полупроводниковых приборов, которые упакованы в небольшие пластмассовые коробочки.

В результате этого превращения компьютеры стали применяться повсюду. Они управляют работой кассовых аппаратов, следят за работой автомобильных систем зажигания, ведут учёт семейного бюджета, или просто используются в качестве развлекательного комплекса, но это только малая часть возможностей современных компьютеров. Более того, бурный прогресс полупроводниковой микроэлектроники, представляющей собой базу вычислительной техники, свидетельствует о том, что сегодняшний уровень как самих компьютеров, так и областей их применения является лишь слабым подобием того, что наступит в будущем. Постепенно изучение компьютерной техники пытаются вводить в программы школьного обучения как обязательный предмет, чтобы ребёнок смог уже с довольно раннего возраста знать строение и возможности компьютеров. А в самих школах (в основном на западе и в Америке) уже многие годы компьютеры применялись для ведения учебной документации, а теперь они используются при изучении многих учебных дисциплин, не имеющих прямого отношения к вычислительной технике.

1. Перспективы развития Intel

В этой работе я постараюсь заглянуть в ближайшие планы Intel.

27 сентября 1999 года - 133 МГц FSB

Итак, с этого дня начинается жизнь систем с частотой шины 133 МГц. Казалось бы, VIA уже давно выпустил свой чипсет Apollo Pro133, который имеет возможность использования этой частоты, однако процессоров поддерживающих такую FSB не было, потому о полноценных 133 МГц говорить не приходилось. В конце сентября ситуация изменилась - на рынок выпустили первый процессор, рассчитанный на эту частоту. Правда, к сожалению, этим процессором пока не станет давно ожидаемый Coppermine, представляющий собой Pentium III, сделанный на базе технологии 0.18 мкм и имеющий интегрированный в ядро и работающий на полной частоте процессора кеш второго уровня размером 256 Кбайт. Ошибки, допущенные при проектировании этого ядра, не дают возможности представить этот процессор в конце сентября - его появлением будет ознаменован последний квартал этого года.

Но одними процессорами Intel, ясное дело, не ограничится - в этом случае создалась бы достаточно нелепая ситуация - новинки поддерживались бы только материнскими платами на чипсетах VIA. В этот же день свет увидят и два новых чипсета i820 и i810e. Выход i820 - своего рода эпохальное событие - этот чипсет откладывался и переделывался несметное количество раз - первой официальной датой его выхода был июнь этого года. Но, наконец-то разработчики и потенциальные потребители пришли к какому-никакому соглашению, что и позволит вывести i820 на рынок.

Самым большим плюсом, и самым большим минусом i820 является поддерживаемый им совершенно новый для PC тип памяти - Direct Rambus DRAM. В общем, самое сомнительное звено - первые материнские платы на чипсете i820 будут требовать от пользователя полностью сменить используемую память, с модулей DIMM перейти на RIMM. Что, в сочетании с их дороговизной и немалыми объемами памяти, требуемыми сегодняшними приложениями, выльется в копеечку, и вряд ли вызовет массовый энтузиазм.

25 октября 1999 года - Coppermine

Технологию 0.18 мкм - в жизнь! Этот девиз однозначно описывает все события, которые произошли 25 октября. В этот день начаты массовые продажи Pentium III-процессоров, выпущенных по новой технологии и начиненные новым ядром - Coppermine. Наличие в нем 256-килобайтного встроенного кеша второго уровня, работающего на частоте ядра и подобного тому, что мы имеем сегодня в Celeron, гарантирует новое увеличение производительности.

Что будет потом, зная гибкость самой любимой компании, точно сказать уже достаточно тяжело. Однако некие общие тенденции можно описать.

Что касается процессоров, то помимо дальнейшего наращивания скоростей, нас будет ждать и еще один ребенок из семейки Coppermine. Это новый Celeron, сделанный на этом ядре, который был запущен где-то в районе первого квартала 2000 года. Главные отличия от существующих Celeron будут скрываться в поддержке частоты системной шины 100 МГц и долгожданной поддержке набора интеловских SIMD-инструкций SSE.

После этого каких-то кардинальных событий с х86 процессорами от Intel не случалось аж до 2001 года, когда миру было представлено новое процессорное ядро - Willamette, обеспечивающее безпроблемную работу на частотах более гигагерца, преодолеть который существующие архитектуры вряд ли смогут. Willamette будет иметь L1-кеш объемом 256 Кбайт и L2-кеш как минимум 1 Мбайт. При этом данный CPU начнет выпускаться по технологии 0.18 мкм с последующим переходом на 0.13 мкм и медную технологию, вводить которую на 0.18 мкм Intel, в отличие от AMD, считает нецелесообразным.

Вторая интересность, поджидающая нас в том же втором квартале - Timna. Это немного напоминает Cyrix MediaGX, поскольку является Pentium III процессором c интегрированным L2-кешем 128 Кбайт, графическим контроллером и контроллером памяти, поддерживающем Direct Rambus DRAM. Timna, по идее, будет выпускаться также в виде FC-PGA, устанавливаемым в новый сокет - PGA370-S. Впрочем, и это пока только проект, силикона еще нет, потому все может измениться.

Не остановится на месте и направление Mainstream-чипсетов. Выход Camino2 произойдет во втором-третьем квартале 2000 года. Этот чипсет, представляющий собой усовершенствованный i820, будет специально оптимизироваться под Coppermine. В его состав помимо всего прочего будет входить четырехпортовый контроллер USB, контроллер Ultra ATA/100 (еще бы знать, что это такое, многоканальный AC97 кодек, интегрированный LAN-контроллер и некоторые другие возможности, которые к тому времени давно уже появятся в чипсетах VIA. В общем, скучать не придется.

Раздел: Информатика, программирование
Количество знаков с пробелами: 23843
Количество таблиц: 0
Количество изображений: 0

Читайте также: