Может ли компьютер заменить человека сочинение

Обновлено: 03.07.2024

В 1950 году математик Алан Тьюринг придумал тест для того, чтобы определить, может ли машина думать. Со временем идея теста стала прообразом искусственного интеллекта.

Этот тест проводят и сегодня. Под него специально пишут программы и алгоритмы, которые имитируют человеческое поведение.

Но вот что интересно.

Как компьютеру объяснить зачем нужны были мировые войны? Нужен был холокост, сексуальная революция в США и туалетная бумага со смываемой втулкой? Разве можно прописать это логически?

Мы не создадим искусственный интеллект, подобный человеческому. Он просто нас не поймёт. Потому что не скопирует самого главного – непредсказуемой человеческой тупости.

Как бы там ни было, а компьютеры уже умнее человека. Тесла уже водит машину лучше человека, телеграм боты уже умеют различать болезни, станки с чпу уже в сотни раз быстрее работают, чем человек.

Войны нужны чтобы ресурсы отжимать.Будет печально если машина это поймет.

чтобы избежать повторения ГУЛАГа в Германии.

чтобы прекратить беби-бум.

чтобы выкинуть помойное ведро из туалета.

логически прописать - это запросто. с человеческой точки зрение все это, может быть и спорно, а геноцид - это вообще военная уголовщина, но вот логически прописать - это запросто.

В том-то и дело, что если создадут чистый разум(ИИ) , то вопрос - что у него там будет с эмоциями. Ведь человек 95% своих поступпов совершает под руководством эмоций, а не разума. Уж на человеческий разум ИИ точно не будет похож.

Почему "непредсказуемой человеческой тупости", лол?

ИИ это просто инструмент. Зачем ему разбираться в проблемах вселенского масштаба? Его дело- помогать решать задачи которые можно формализовать.

Превосходство по ошибке

Помните один из главных примеров превосходство машины над человеком прошлого столетия? Победа компьютера Deep Blue в шахматном матче против Гарри Каспарова в 1997. По популярной версии компьютер смог обыграть человека благодаря багу. Это была уже вторая встреча Каспарова и Blue. Годом ранее Каспаров сумел обыграть компьютер заставляя его тратить время на выбор лучшей позиции из нескольких вариантов. Хотя уже тогда был впечатлён возможностями компьютера.

В первой партии Blue намеренно пожертвовал пешкой, что по признанию самого Каспарова выглядело по-человечески. К счастью для Каспарова он быстро сообразил что перед ним все еще компьютер. Что тот пожертвовал пешкой потому что этот ход был лучшим из 100 миллионов вариантов которые он обрабатывал за секунду.

В 1997 IBM улучшили алгоритм Deep Blue, и вызвали Каспарова на реванш. Каспаров был уверен своей победе так как понимал машинную логику, проводил много времени тренируясь против ботов на компьютере и в конце концов уже побеждал Blue ранее.

Он считал что машина нацеленная на победу всегда будет действовать на результат и не сможет сделать невыгодные ей ходы. Но в первой же партии на 44 ходу Blue ставит ладью в крайне невыгодную позицию без какой-либо логики и возможного развития, чем обрекает себя на проигрыш. Как считается именно этот ход оказал на Каспарова огромное психологическое давление его уверенность том что машина не способна на необдуманные ходы в тот момент рухнула.

Поэтому следующих партиях Каспаров стал волноваться, допускал фатальные ошибки и обвинял IBM в жульничестве, считая что ходы делает человек. И спустя 15 лет после этого легендарного матча выяснилось что тот необдуманный ход ладьёй Blue сделал из-за бага в системе.

Обрабатывая 200 миллионов ходов в секунду компьютер столкнулся со слишком большим количеством вариантов действий и не смог обнаружить явных предпочтений для своего хода.

Поэтому пошел на манёвр и сделал ход ладьёй абсолютно случайно. Это был сбой системе который не предусмотрел IBM и который поправили к следующей партии. Но именно этот случайный ошибочный ход заставил Каспарова занервничать и усомниться своей победе.

Превосходство по ошибке Deep Blue, Шахматы, Мышление, Искусственный интеллект

OneDrive прикалывается

Сел только что за комп и вот что мне предложили )))

OneDrive прикалывается Алкоголь, Компьютер, Георгий Вицин, Юмор, Искусственный интеллект

Андрей Карпатый родился в 1986 году в Словакии. С 2017 года - директор по разработке технологий компьютерного зрения и искусственного интеллекта в Tesla.

Карпатый автор удивительной и перспективной идеи, которую можно интерпретировать следующим образом: если встроить обучаемую модель внутрь компьютера, то удастся сделать его обучаемым и таким образом вывести из состояния тупого программного автомата.

В 2017 году Андрей Карпатый, в прошлом ученый-исследователь в Стэнфордском университете, вступил на должность руководителя направления ИИ в компании Tesla, ответственного за разработку ПО для компьютерного зрения и автовождения. Стремительному карьерному скачку далекого от индустрии академического ученого, фаната скоростной сборки кубика Рубика предшествовала вызванная рядом автомобильных инцидентов отставка прежнего руководства этого направления в полном составе.

В своем посте он заявил, что нынешняя парадигма программирования, которую после появления Software 2.0 приходится называть Software 1.0, сохраняется неизменной 70 лет, несмотря на возникновение за прошедшие годы колоссального количества аппаратных и программных новых технологий. Суть ее в том, что строго детерминированное решение сначала описывается человеком на языке программирования, затем оно компилируется (реже интерпретируется) в машинных кодах и выполняется.

Предшественник Карпатого, Крис Лэттнер уволен. О начале его работы в компании было объявлено в январе 2017 года. До этого он считался одним из самых опытных программистов американской корпорации Apple.

Реализация парадигмы Software 2.0 может стать первым практическим шагом по направлению к работе с нечеткими данными. Если мы не можем алгоритмизировать задачу и написать программу из-за нечеткости исходных данных, то стоит снабдить компьютер каким-то начальными знаниями, чем-то вроде библиотек подпрограмм и функциональных модулей в сочетании с механизмом выбора нужного из библиотеки.

Далее можно вступить с компьютером в диалог, подавать на вход данные и смотреть на реакцию компьютера, корректировать данные на входе и снова оценивать результаты. В результате этого итерационного процесса, со временем в компьютере сложится необходимый код.

По замыслу Карпатого, процедура разработки Software 2.0 должна стать подобной парному программированию, где над кодом одновременно работают двое, сидя за одним рабочим местом. Один из них (исполнитель) пишет код, а другой (наблюдатель) мониторит процесс и сосредоточен на стратегии. Периодически эти двое меняются ролями. В процессе разработки Software 2.0 тоже будет пара. В ней исполнителем станет компьютер с предустановленной на нем системой машинного обучения, а человеку достанется роль наблюдателя.

Карпатый предлагает полностью передать формирование кодов машине, а за человеком закрепить управление человеко-машинным процессом разработки. Целью Software 2.0 служит создание модели, которая сама может породить коды, она обучается тому, какие коды в соответствие с заданными правилами должны быть созданы для получения тех или иных результатов. С точки зрения программиста при разработке в рамках Software 2.0 процессы написания текста и отладка программы деятельности уступают свое место работе с данными и итерационному процессу обучению модели, основанной на нейронных сетях.

Для такого подхода можно использовать известную аббревиатуру AI (Artificial Intelligence), но расшифровать ее как Augmented Intelligence, понимая под этим способность машины служить интеллектуальным помощником человеку. Важнейшим компонентом такого AI-подхода является итерационный режим работы с перманентным тестированием, то, что называют test-driven. Человек пишет задание и критерии его оценки, а машина ищет способ решения и предъявляет результат. В этом процессе разработчик освобождается от рутинной деятельности и получает возможность сосредоточиться на сути решаемой задачи. То есть, он должен быть квалифицированным специалистом в прикладной области.

В нынешних условиях методами Software 2.0 можно будет создавать коды для фон-неймановских машин, иного выбора нет. Но это решение открывает интереснейшие перспективы для создаваемых нейроморфных процессоров, обладающих элементарными способностями к более сложным действиям, чем исполнение заданной программы.

Some people say that very soon computers will take place of humans, while others believe that there will be always jobs only people can do. In this essay, I will try to answer this question.

I agree with the second point of view. Although the computers have already replaced people in the majority of jobs, they cannot replace them completely. Firstly, machines are fragile and they break down easily, while people can spot when something goes wrong and fix it. Secondly, when computers learn to perform human tasks, they let us do something greater instead. When some processes are being automated, new jobs like quality assurance appear.

However, there are some people who have an opposing opinion. They claim that computers will replace people soon. Comparing to people computers can work 24 hours a day, you do not need to pay them and they never complain and do the exact things they have to do.

I cannot totally agree with that point of view.

Despite all their shortcomings, people have something computers lack. Intuition, imagination, creativity, compassion, ability to take decisions are things computers do not have. These abilities will help people always be demanded.

To sum up, I would like to say that some kind of jobs will always be done by humans. Computers cannot totally replace people because there are still things they are not capable of.

Одни говорят, что очень скоро компьютеры заменят людей, другие считают, что всегда найдется работа, которую могут выполнять только люди. В этом эссе я постараюсь ответить на этот вопрос.

Тем не менее, есть люди, которые придерживаются противоположного мнения. Они утверждают, что компьютеры скоро заменят людей. По сравнению с людьми компьютеры могут работать 24 часа в сутки, им не нужно платить, и они никогда не жалуются и делают именно то, что должны делать.

Я не могу полностью согласиться с этой точкой зрения. Несмотря на все свои недостатки, у людей есть то, чего не хватает компьютерам. Интуиция, воображение, креативность, сострадание, способность принимать решения - вот чего нет у компьютеров. Эти способности помогут людям всегда быть востребованными.

Подводя итог, хочу сказать, что какая-то работа всегда будет выполняться людьми. Компьютеры не могут полностью заменить людей, потому что все еще есть вещи, на которые они не способны.

Внимание!
Если Вы заметили ошибку или опечатку, выделите текст и нажмите Ctrl+Enter.
Тем самым окажете неоценимую пользу проекту и другим читателям.

Каждый в глубине души боится, что рано или поздно будет заменён роботом. Эффективным, дешёвым, безотказным. Но не стоит паниковать, потому что человек незаменим в некоторых областях по ряду причин.

1. У компьютера нет эмоций

При работе с клиентами зачастую важен личный контакт. К примеру, при работе в кафе, ресторане или небольшом магазине важно иметь чувство юмора, уметь приспосабливаться к настроению клиента, чтобы что-либо продать и оставить у потребителя хорошее впечатление. Если покупателю понравилась атмосфера заведения, то велика вероятность, что он придёт снова. В качестве примера ещё одной отрасли, в которой важен личный контакт, можно привести психологию, где гораздо выше шанс, что нуждающийся в помощи обратится к живому, приветливому человеку, а не бездушному компьютеру.

Искусственный интеллект не способен чувствовать настроение клиента и не имеет своего собственного, поэтому вряд ли когда-нибудь заменит представителей вышеописанных профессий.

2. Алгоритм не способен мыслить творчески

Многочисленные компании пытаются создать "творческий" алгоритм, последний пример тому - приложение Prisma, которое по задумке превращает фотографии в неповторимые шедевры, используя различные фильтры. Вот оно, компьютерное творчество, верно? Не совсем. Подобные приложения лишь анализируют огромное множество произведений искусства и пытаются создать что-то подобное - о настоящем творчестве речи не идёт. Человек же, напротив, создаёт всё с нуля, работает на продуктивном, а не репродуктивном уровне.

3. У алгоритма нет интуиции

Программа делает решения, анализируя события и их последствия в прошлом. Компьютер выстраивает причинно-следственную цепочку лишь из опыта прошлого. Если подобное событие ещё не происходило, то алгоритм не сможет предугадать, когда оно произойдёт и каковы будут последствия. Также компьютер не всегда располагает нужной информацией, что негативно сказывается на эффективности его работы. Примером тому может служить кризис 2008 года: несмотря на достаточное развитие искусственного интеллекта, он не смог предугадать подобный сценарий, это событие стало полным шоком для большинства игроков рынка. С другой стороны, отдельные инвесторы, располагавшие большим количеством информации, более ясно видели всю картину и заранее вывели из оборота свои капиталы.

4. Программа не может сама себя написать

Да, недавно компания Microsoft представила утилиту Deep Coder, которая может писать код, выполняющий задачи, поставленные человеком. Да, она действительно работает. Но и тут компьютер наступает на те же грабли: он ничего не способен самостоятельно создать с нуля, а лишь вырезает куски уже существующего кода из базы данных и "сшивает" их вместе. К тому же, аналогов у программы пока что нет. Так что написать специфическую программу пока что под силу лишь человеку; работу программистов ещё долго ни одна программа не заменит.

5. Электроника уязвима

Перепад напряжения, сбои в подаче питания, вирусы, физические повреждения - и это лишь начало списка причин, способных вывести электронику из строя. Любого человека относительно легко можно заменить, как бы обидно это не звучало, а вот поломанный суперкомпьютер заменить уже куда сложнее. Кроме того, это также может означать, что важные данные и результаты работы утеряны, в то время как люди в этом плане куда надёжнее.

В целом, не стоит отчаиваться, ведь программы всё ещё не так совершенны, как люди и по ряду причин вряд ли их заменят.

В 1950 году математик Алан Тьюринг придумал тест для того, чтобы определить, может ли машина думать. Со временем идея теста стала прообразом искусственного интеллекта.

Этот тест проводят и сегодня. Под него специально пишут программы и алгоритмы, которые имитируют человеческое поведение.

Но вот что интересно.

Как компьютеру объяснить зачем нужны были мировые войны? Нужен был холокост, сексуальная революция в США и туалетная бумага со смываемой втулкой? Разве можно прописать это логически?

Мы не создадим искусственный интеллект, подобный человеческому. Он просто нас не поймёт. Потому что не скопирует самого главного – непредсказуемой человеческой тупости.

Как бы там ни было, а компьютеры уже умнее человека. Тесла уже водит машину лучше человека, телеграм боты уже умеют различать болезни, станки с чпу уже в сотни раз быстрее работают, чем человек.

Войны нужны чтобы ресурсы отжимать.Будет печально если машина это поймет.

чтобы избежать повторения ГУЛАГа в Германии.

чтобы прекратить беби-бум.

чтобы выкинуть помойное ведро из туалета.

логически прописать - это запросто. с человеческой точки зрение все это, может быть и спорно, а геноцид - это вообще военная уголовщина, но вот логически прописать - это запросто.

В том-то и дело, что если создадут чистый разум(ИИ) , то вопрос - что у него там будет с эмоциями. Ведь человек 95% своих поступпов совершает под руководством эмоций, а не разума. Уж на человеческий разум ИИ точно не будет похож.

Почему "непредсказуемой человеческой тупости", лол?

ИИ это просто инструмент. Зачем ему разбираться в проблемах вселенского масштаба? Его дело- помогать решать задачи которые можно формализовать.


Превосходство по ошибке

Помните один из главных примеров превосходство машины над человеком прошлого столетия? Победа компьютера Deep Blue в шахматном матче против Гарри Каспарова в 1997. По популярной версии компьютер смог обыграть человека благодаря багу. Это была уже вторая встреча Каспарова и Blue. Годом ранее Каспаров сумел обыграть компьютер заставляя его тратить время на выбор лучшей позиции из нескольких вариантов. Хотя уже тогда был впечатлён возможностями компьютера.

В первой партии Blue намеренно пожертвовал пешкой, что по признанию самого Каспарова выглядело по-человечески. К счастью для Каспарова он быстро сообразил что перед ним все еще компьютер. Что тот пожертвовал пешкой потому что этот ход был лучшим из 100 миллионов вариантов которые он обрабатывал за секунду.

В 1997 IBM улучшили алгоритм Deep Blue, и вызвали Каспарова на реванш. Каспаров был уверен своей победе так как понимал машинную логику, проводил много времени тренируясь против ботов на компьютере и в конце концов уже побеждал Blue ранее.

Он считал что машина нацеленная на победу всегда будет действовать на результат и не сможет сделать невыгодные ей ходы. Но в первой же партии на 44 ходу Blue ставит ладью в крайне невыгодную позицию без какой-либо логики и возможного развития, чем обрекает себя на проигрыш. Как считается именно этот ход оказал на Каспарова огромное психологическое давление его уверенность том что машина не способна на необдуманные ходы в тот момент рухнула.

Поэтому следующих партиях Каспаров стал волноваться, допускал фатальные ошибки и обвинял IBM в жульничестве, считая что ходы делает человек. И спустя 15 лет после этого легендарного матча выяснилось что тот необдуманный ход ладьёй Blue сделал из-за бага в системе.

Обрабатывая 200 миллионов ходов в секунду компьютер столкнулся со слишком большим количеством вариантов действий и не смог обнаружить явных предпочтений для своего хода.

Поэтому пошел на манёвр и сделал ход ладьёй абсолютно случайно. Это был сбой системе который не предусмотрел IBM и который поправили к следующей партии. Но именно этот случайный ошибочный ход заставил Каспарова занервничать и усомниться своей победе.

Превосходство по ошибке Deep Blue, Шахматы, Мышление, Искусственный интеллект

OneDrive прикалывается

Сел только что за комп и вот что мне предложили )))

OneDrive прикалывается Алкоголь, Компьютер, Георгий Вицин, Юмор, Искусственный интеллект


Андрей Карпатый родился в 1986 году в Словакии. С 2017 года - директор по разработке технологий компьютерного зрения и искусственного интеллекта в Tesla.

Карпатый автор удивительной и перспективной идеи, которую можно интерпретировать следующим образом: если встроить обучаемую модель внутрь компьютера, то удастся сделать его обучаемым и таким образом вывести из состояния тупого программного автомата.

В 2017 году Андрей Карпатый, в прошлом ученый-исследователь в Стэнфордском университете, вступил на должность руководителя направления ИИ в компании Tesla, ответственного за разработку ПО для компьютерного зрения и автовождения. Стремительному карьерному скачку далекого от индустрии академического ученого, фаната скоростной сборки кубика Рубика предшествовала вызванная рядом автомобильных инцидентов отставка прежнего руководства этого направления в полном составе.

В своем посте он заявил, что нынешняя парадигма программирования, которую после появления Software 2.0 приходится называть Software 1.0, сохраняется неизменной 70 лет, несмотря на возникновение за прошедшие годы колоссального количества аппаратных и программных новых технологий. Суть ее в том, что строго детерминированное решение сначала описывается человеком на языке программирования, затем оно компилируется (реже интерпретируется) в машинных кодах и выполняется.

Предшественник Карпатого, Крис Лэттнер уволен. О начале его работы в компании было объявлено в январе 2017 года. До этого он считался одним из самых опытных программистов американской корпорации Apple.

Реализация парадигмы Software 2.0 может стать первым практическим шагом по направлению к работе с нечеткими данными. Если мы не можем алгоритмизировать задачу и написать программу из-за нечеткости исходных данных, то стоит снабдить компьютер каким-то начальными знаниями, чем-то вроде библиотек подпрограмм и функциональных модулей в сочетании с механизмом выбора нужного из библиотеки.

Далее можно вступить с компьютером в диалог, подавать на вход данные и смотреть на реакцию компьютера, корректировать данные на входе и снова оценивать результаты. В результате этого итерационного процесса, со временем в компьютере сложится необходимый код.

По замыслу Карпатого, процедура разработки Software 2.0 должна стать подобной парному программированию, где над кодом одновременно работают двое, сидя за одним рабочим местом. Один из них (исполнитель) пишет код, а другой (наблюдатель) мониторит процесс и сосредоточен на стратегии. Периодически эти двое меняются ролями. В процессе разработки Software 2.0 тоже будет пара. В ней исполнителем станет компьютер с предустановленной на нем системой машинного обучения, а человеку достанется роль наблюдателя.

Карпатый предлагает полностью передать формирование кодов машине, а за человеком закрепить управление человеко-машинным процессом разработки. Целью Software 2.0 служит создание модели, которая сама может породить коды, она обучается тому, какие коды в соответствие с заданными правилами должны быть созданы для получения тех или иных результатов. С точки зрения программиста при разработке в рамках Software 2.0 процессы написания текста и отладка программы деятельности уступают свое место работе с данными и итерационному процессу обучению модели, основанной на нейронных сетях.

Для такого подхода можно использовать известную аббревиатуру AI (Artificial Intelligence), но расшифровать ее как Augmented Intelligence, понимая под этим способность машины служить интеллектуальным помощником человеку. Важнейшим компонентом такого AI-подхода является итерационный режим работы с перманентным тестированием, то, что называют test-driven. Человек пишет задание и критерии его оценки, а машина ищет способ решения и предъявляет результат. В этом процессе разработчик освобождается от рутинной деятельности и получает возможность сосредоточиться на сути решаемой задачи. То есть, он должен быть квалифицированным специалистом в прикладной области.

В нынешних условиях методами Software 2.0 можно будет создавать коды для фон-неймановских машин, иного выбора нет. Но это решение открывает интереснейшие перспективы для создаваемых нейроморфных процессоров, обладающих элементарными способностями к более сложным действиям, чем исполнение заданной программы.

Читайте также: