→ Философские проблемы «искусственного интеллекта» и виртуальной реальности. представление об объективном знании, независимом ни от человека, ни от человечества. · Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатир

Философские проблемы «искусственного интеллекта» и виртуальной реальности. представление об объективном знании, независимом ни от человека, ни от человечества. · Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатир

Никто не может предсказать, как поведут себя системы, созданные с помощью совершенного искусственного интеллекта. Тем не менее предположений много, рассмотрим в чем же заключается проблема искусственного итнеллекта .

Философская проблема искусственного интеллекта

Основная философская проблема в области искусственного интеллекта заключается в доведении возможности и целесообразности моделирования процесса мышления человека. Существует опасность тратить время на изучение того, что невозможно создать, в частности, на современном этапе развития человечества. Примером подобного времяпрепровождения может быть занятие научным коммунизмом — наукой, что на протяжении десятилетий изучала то, чего нет, и в обозримом будущем быть не может. Рассмотрим ряд доказательств, которые подводят к положительному ответу на вопрос возможности создания .

Первое доказательство выходит из области схоластики и говорит о непротиворечия искусственного интеллекта и Библии . Об этом говорят слова священного писания: «И создал Господь Бог человека по своему образу и подобию». Исходя из этих слов, можно утверждать, что, поскольку люди по своей сути подобные Творцу, то они вполне могут искусственным путем создать несколько по собственному образу и подобию.

Второй довод вытекает из успехов человечества, достигнутых в области создания нового разума биологическим путем. В 90-х годах прошлого столетия появилась возможность клонирования млекопитающих, начиная с овечки Долли. Дальнейшие достигнутые успехи в данном направлении заключаются в создании форм искусственной жизни, не имеющие никакого естественного экземпляра, к которому бы они были похожи. Например, кролики с дополнительным геном, что создает эффект светлячка. В отличие от клонов, эти формы в полной мере представляют собой искусственную жизнь . Вместе с тем, такие существа можно считать интеллектуальными, учитывая их способности к элементарному обучению. Поэтому они могут называться системами искусственного интеллекта, хотя несотворенным на основе использования средств вычислительной техники, которые представляют наибольший интерес для человечества.

Третий довод — это доказательство возможности самовоспроизведения объектов , состоящих из неживой материи. Способность к самовоспроизводству, как признак наличия интеллекта, долгое время считалась прерогативой живых организмов. Однако некоторые явления, происходящие в неживой природе, например, рост кристаллов, синтез сложных молекул через копирования, во многом идентичны самовоспроизводству.

Исследование искусственного интеллекта

В начале 50-х годов прошлого столетия Дж. фон Нейман занялся основательным изучением самовоспроизведения и заложил основы математической теории автоматов, «самовоспроизводящихся». Он также доказал теоретическую возможность управляемой инициализации самовоспроизведению. На сегодня, существует много различных неформальных доказательств возможности самовоспроизведения объектов, но для программистов наиболее существенный довод заключается в существовании компьютерных вирусов.

Четвертое доказательство — это существование принципиальной возможности автоматизации решения интеллектуальных задач с помощью вычислительной техники. Она обеспечивается ее свойством алгоритмической универсальности. Алгоритмическая универсальность вычислительных машин означает, что на них можно программно реализовывать любые алгоритмы преобразования информации: вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем и т.д. При этом, подразумевается, что процессы, порождаемые этими алгоритмами, являются потенциально осуществимыми, то есть, что они осуществляются в результате проведения конечного количества элементарных операций.

Практическая реализация алгоритмов зависит от существующих вычислительных мощностей, которые изменяются с развитием техники. В частности, вследствие появления быстродействующих компьютеров, стало практически возможным создание программных систем, способных реализовывать такие алгоритмы, которые ранее считались лишь потенциально осуществимыми.

Для обозначения программных систем, использующих искусственный интеллект, сложился общий срок — интеллектуальная система . Целесообразность создания интеллектуальных систем заключается в необходимости решения задач, которые не решаются на достаточном уровне эффективности программными системами, созданными на жесткой алгоритмической основе. К таким задачам относятся задачи, имеющие, как правило, следующие особенности:

  • у них неизвестный алгоритм решения — такие задачи носят названия интеллектуальных задач;
  • в них используется, помимо традиционных форматов данных, информация в виде графических изображений, рисунков, звуков;
  • в них предполагается наличие свободы выбора — то есть, отсутствие единого алгоритма решения задачи обусловливает необходимость сделать выбор между вариантами действий в условиях неопределенности.

Приведенный перечень задач формирует особенности интеллектуальных систем, предназначенных для их решения. Источником такого определения особенностей фактически является известный тест Тьюринга , предложенный британским математиком и одним из первых исследователей в области компьютерных наук Аланом Тьюрингом (Alan Turing). В данном тесте экспериментатор, обмениваясь сообщениями с подопытным объектом, пытается определить, кем он является на самом деле: человеком или компьютерной программой.

Интеллектуальная система, успешно прошла такой тест, считается сильным искусственным интеллектом. Термин «сильный искусственный интеллект» пропагандируется специалистами, которые считают, что искусственный интеллект должен базироваться на строгой логической основе. В отличие от сильного, слабый искусственный интеллект, по их мнению, базируется исключительно на одном из методов решения интеллектуальных задач (искусственных нейронных сетях, генетических алгоритмах, эволюционных методах). В наши дни стало очевидным, что ни один из методов искусственного интеллекта не позволяет успешно решить приемлемое количество задач — лучше проявляет себя использование комбинации методов.

Первая программа, прошедшая тест Тьюринга, была написана в ходе проведения психологических экспериментов Стивеном Вейценбаум (Steven Weizenbaum) в 1967 году. С тех пор уровень знаний в этой области значительно возрос, а способы взаимодействия экспериментатора с объектом исследования стали гораздо совершеннее. В наши времена проводятся отдельные соревнования с призовым фондом в сотни тысяч долларов США под названием: «Соревнование за приз Лебнера», в ходе которых определяется лучшая программа.

Не следует думать, что интеллектуальные системы могут, решать любые задачи. Математиками было доказано существование таких типов задач, для которых невозможен единый алгоритм, чтобы воспроизводил их эффективные решения. В этом контексте определяется невозможность решения задач такого типа с помощью интеллектуальных систем, разработанных для вычислительных машин. Кроме того, утверждение про алгоритмическую невозможность решения некоторого класса задач является одновременно и прогнозом на будущие времена, согласно которому алгоритмы их решения не будут найдены никогда.

Этот факт способствует лучшему пониманию того, где в современном мире могут найти свое практическое . В частности, для решения задачи, не имеет универсального алгоритма решения, целесообразно ее сужение до уровня, когда она решается только для определенного подмножества начальных условий. Такие решения по силам интеллектуальным системам, а их результат способен сузить, для человека, область вариантов интуитивного выбора.

Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, - возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р.Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?

Ещё в XVIII в. Д.Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.

В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания».

«Могут ли машины мыслить?» - такой вопрос поставил в 1950 г. британский математик и логик А.Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т.к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного ИИ».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.

В 1980 г. Дж.Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.

«…предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов».

Таким образом, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого на самом деле не знает. Очевидно, что в данном случае Сёрл выполняет исключительно механическую работу и легко может быть заменён машиной. Сёрл показывает, что тест Тьюринга вовсе не является критерием наличия сознания, а лишь критерием способности манипулировать символами.

Суть позиции Сёрла по вопросу искусственного интеллекта сводится к следующему: разум оперирует смысловым содержанием (семантикой), тогда как компьютерная программа полностью определяется своей синтаксической структурой. Следовательно, программы не являются сущностью разума и их наличия недостаточно для наличия разума. Разум не может сводиться лишь к выполнению компьютерной программы. То, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга. Т.е. Сёрл отметает прочерченный Тьюрингом прямой путь к искусственному интеллекту.

Впрочем, против мысленного эксперимента Сёрла было приведено немало возражений. Вот основные из них:

· для того, чтобы гарантировано пройти тест, в книге должны содержаться адекватные ответы на ВСЕ существующие вопросы. Т.е. книга должна обладать всезнанием, иначе вероятность того, что необычный вопрос вгонит систему в ступор, будет ненулевой.

· на самом деле, тест на знание китайского языка проходит система, состоящая из Дж. Сёрла, книги правил и людей, которые эту книгу правил составляли. А вот люди, составлявшие книгу, несомненно, обладают знанием китайского языка. Хотя другие части системы язык не понимают.

Также, аргументом против теста Тьюринга как критерия наличия разума является то, что тест Тьюринга на самом деле является тестом на человекоподобие, а не на разумность вообще. При прохождении теста машина должна вести себя как человек – но ведь далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать гораздо эффективнее человека (например, математические вычисления). Стремление же пройти тест Тьюринга заставляет машины быть «не слишком умной». Можно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пытались сделать его точной копией птицы, они были бы похожи на современных учёных, которые пытаются создать машину, мыслящую точно так же, как мыслит человек. Это совершенно непрактично. Самолёты летают не как птицы, тем не менее, они летают гораздо быстрее, дальше и выше птиц. Т.е. тест Тьюринга не раскрывает сущности разума, а лишь указывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Способность болтать – еще не признак интеллекта» - резюмируют эту позицию сценаристы фильма «Звёздные войны».

Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. Например, типична история машинного перевода, возможности которого еще несколько десятилетий считались значительно превосходящими возможности переводчика-человека. Но на практике, несмотря на немыслимые объёмы информации, которые способна хранить машина, перевод в лучшем случае настолько стилистически «коряв» и уродлив, что «машинный перевод» стал своеобразной темой комедийного интернет - искусства. Любому хорошему переводчику известно, что для настоящего перевода (даже технического) мало словаря и грамматики. Тут еще нужны знания в той области, к которой относится текст - переводчик должен понимать, о чём в тексте идёт речь. Т.е. синтаксис без семантики не даёт возможности решать большую часть интеллектуальных задач, доступных разуму человека.

Поэтому, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Зато получил огромное распространение «тест Тьюринга наоборот» - назойливая CAPTCHA.

Как мы видим, поиск возможности создания искусственного интеллекта в любом случае упирается в вопрос: что такое разум?

В 1963 А.Ньюэлл и Г.Саймон, основываясь на анализе языка, предположили, что сущность разума заключается в способности оперировать символами. Такой подход позволил создать программу, способную решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (например, доказывать теоремы, играть в шахматы и т.п.). Способность выполнять символьные вычисления вполне достаточна для решения интеллектуальных задач, а без таких вычислений разумное поведение невозможно. Таким образом, разум может быть рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода искусственный интеллект создаётся по аналогии с мозгом и нервной системой человека, т.е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения - одно из главных преимуществ нейросетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.

Этот подход подвергся критике со стороны философа Х.Дрейфуса. Суть его возражений в следующем:

· знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из нашего субъективного отношения к нему и склонности воспринимать и интерпретировать события так или иначе. Даже если мы используем символическую систему для выражения наших мыслей, мысли всё равно формируются во многом под воздействием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, недостаточно для понимания сущности разума и создания искусственного интеллекта.

· не всё знание и не все задачи могут быть формализованы. Значительная часть восприятия человека не может быть адекватно выражена в символах. Следовательно, ИИ, построенный как символическая система, сможет решать лишь небольшой круг формализуемых задач, не являясь разумом.

Практика создания ИИ подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны эффективно решать многие задачи, но до возможностей человеческого разума им бесконечно далеко. Таким образом, сведение разума к оперированию символами по формальным правилам не привело к пониманию его сущности.

Хотя качественного прорыва в создании сильного ИИ не произошло, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и в данный момент сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Возможно ли, что количественный рост сложности вычислительных систем приведёт к их качественному скачку?

В 1993 г. математик и писатель В. Виндж предложил концепцию, описывающую последствия возникновения ИИ, превосходящего по вычислительным возможностям человеческий разум. С того момента, как ИИ будет открывать новое знание быстрее человека, ИИ сможет создавать всё более и более совершенные вычислительные машины, которые будут ускорять рост знания в ещё большей степени, т.е. процесс будет нарастать как снежный ком, становясь недоступным пониманию человека. После этого развитие ИИ станет настолько стремительным, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. В.Виндж назвал этот момент «технологической сингулярностью».

Технологическая сингулярность характеризуется появлением нового вида знания – т.н. машинного знания, т.е. знания, доступного лишь машине. Как это может выглядеть? Например, как математическая теорема, доказанная машиной. Первая крупная математическая теорема, доказанная с помощью компьютера, - т.н. «теорема о четырех красках». Ее формулировка элементарна: для того чтобы раскрасить географическую карту так, чтобы никакие два граничащих региона не были одного цвета, достаточно всего четырех разных красок. Два региона считаются граничащими, если они имеют протяженную границу, то есть состоящую больше чем из одной точки. Доказательство теоремы о четырех красках - прецедент использования компьютера при решении классических математических задач. В то же время оно примечательно своей длиной и сложностью. Даже после применения компьютера, позволившего значительно сократить вычисления, текст доказательства элементарно формулируемого утверждения имеет астрономическую длину. Нетрудно представить себе появление такой теоремы, доказательство которой будет слишком длинным, чтобы человеческой жизни хватило на его проверку. И тогда развитие знания и получение его плодов окажутся прерогативой искусственного разума.

И всё же даже на пути теоретических рассуждений на тему создания сильного ИИ остаётся одно веское «но». Развитие «машинного» знания предполагает возможность не только решения искусственным разумом уже поставленных и формализованных задач, но и постановку и осмысление принципиально новых. Т.е. разум должен быть способен к творчеству. Но сама идея творчества противоречит алгоритмическому подходу, ведь творчество – это деятельность вне формальных правил и алгоритмов, постановка и решение принципиально новых задач. Вполне вероятно, что разум принципиально невозможно свести к определённому набору операций и алгоритмов, а это значит, что самостоятельное развитие для алгоритмически построенного ИИ окажется недоступным.

Возможность создания машинного аналога человеческого разума не представляется в настоящее время теоретически и эмпирически обоснованной. Напротив, мы рассмотрели ряд убедительных аргументов, которые указывают на принципиальные различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами. На данный момент философия искусственного интеллекта не смогла методом моделирования ответить на вопрос «что такое разум?», но зато мы можем уверенно заключить, чем разум не является. Теория и практика создания ИИ позволяет нам с уверенностью отвергнуть представления о «человеке-машине» и о сводимости деятельности разума к выполнению набора формальных вычислений.

Наиболее важным значением философских проблем ИИ представляется не создание пусть и весьма совершенных алгоритмов для решения практических задач, а те новые горизонты в понимании природы и сущности сознания, которые открываются в процессе решения вопросов создания ИИ. Таким образом, философия искусственного интеллекта в полной мере следует максиме Сократа «познай самого себя».

Литература:

1. Сирл Дж. Разум мозга - компьютерная программа? // В мире науки. (Scientific American. Издание на русском языке) № 3, 1990. - М., «Мир», 1990.

2. Сёрль Дж. Рациональность в действии / Пер. с англ. А. Колодия, Е. Румянцевой. - М.: Прогресс-Традиция, 2004. - 336 с.

3. Васильев В.В. Трудная проблема сознания. - М., Прогресс-Традиция, 2009. – 272 с.


А.Айер. Язык, Истина и логика.- с.140.

Цит. По «В мире науки», 1990, № 3, с. 7-11)

C ompletely A utomated P ublic T uring test to tell C omputers and H umans A part - тест, по замыслу разработчиков, позволяющий программе определить, кем является пользователь системы: человеком или программой. Впрочем, автору этих строк неизвестна ни одна «капча», которую с высокой вероятностью опознать человек, а ни одна программа не смогла бы.

Быковский И.А. Философские аспекты проблем создания искусственного интеллекта – автореферат дисс. на соискание уч. ст. к.ф.н. – Саратов, 2003.

Философия искусственного интеллекта задаётся вопросами о «мышлении машин», рассматривает вопросы:

  • -Может ли машина действовать разумно? Может ли она решать проблемы, которые человек решает с помощью размышлений?
  • -Может ли машина иметь разум, сознание, психическое состояние в той мере, в которой ими обладает человек. Может ли она чувствовать?
  • -Одинакова ли природа человеческого и искусственного интеллекта? Является ли в своей основе человеческий мозг компьютером?

Эти вопросы отражают интересы различных исследователей искусственного интеллекта, философов, исследователей познавательной (когнитивной) деятельности. Ответы на эти вопросы зависят от того, что понимается под понятиями «интеллект» или «сознания», и какие именно «машины» являются предметом обсуждения.

Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, его же словами подход и характеризуется:

Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум -- это разум.

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

В своем мысленном эксперименте «Китайская комната», Джон Сёрль показывает, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления.

Мышление есть процесс обработки находящейся в памяти информации: анализ, синтез и самопрограммирование.

Аналогичную позицию занимает и Роджер Пенроуз, который в своей книге «Новый ум короля» аргументирует невозможность получения процесса мышления на основе формальных систем.

Также философии пришлось столкнуться с этические проблемы создания искусственного разума. Рассмотрим некоторые проблемы, которые могут возникнуть при и после создания ИИ. Следует отметить, что в данном реферате изложен далеко не полный перечень таких проблем

Проблема 1. Проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение -- "Терминатор". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности - трех законах роботехники:

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как "причинить вред". Или "допустить". Попробуйте определить, что происходит в любом случае, а что он "допустил"?

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система ИИ под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции ИИ, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" -- "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Вывод по проблеме 1

Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а ИИ теперь является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

Проблема 2.

Проблема сверхинтеллекта и взаимоотношений человечества и ИИ, сможет ли человечество использовать для расширения своего знания познавательные модели сверхумного ИИ?

Машинный ИИ, построенный в виде наполняемого знаниями компьютера, никогда не сможет обладать творческим потенциалом, то есть стать умнее в творческом плане, не только человечества, но и отдельного человека. Но если предположить, что человеку удастся внести «Божью искру» (эта моральная проблема будет рассмотрена далее) - то есть для человечества это, фактически, путь самопожертвования во имя создания нового более совершенного живого аналога интеллекта человека, так как в этом случае человек теряет на Земле свое уникальное место как самого умного на свете существа.

То есть человечество, вероятно, сохранится, но для сверхинтеллекта оно будет выглядеть как заповедник ближайших генетических родственников, с которыми полноценное интеллектуальное взаимодействие невозможно. Получая от сверхинтеллекта каждый раз такие рекомендации, которые с очевидностью улучшают состояние человеческого общества, человечество становится, в конечном счете, абсолютно зависимым от сверхинтеллекта. То есть возникает симбиоз сверхинтеллекта и человечества, где человечество выполняет для сверхинтеллекта сервисные функции.

Но, возможно ли в процессе создания такого сверхинтеллекта, навязать ему запреты на деятельность, наносящую вред человечеству (согласно рассмотренной проблеме 2)? Исходя из того, что в настоящее время известна возможность «программирования» человека на совершение независящего от его воли поступка, то, вероятно, такому «программированию» можно потенциально подвергнуть и живой аналог - ИИ. Но на этом пути возникает целый ряд проблем и возможно, главная из них, нормальное функционирование сверхинтеллекта. Если принять во внимание описанный выше исход взаимоотношения человечества и сверхинтеллекта, то, следуя закону «не вреди человеку и человечеству в целом», сверхинтеллект должен самоуничтожится. Но если и на эту акцию ему наложить запрет, тогда он попадает в логическую ловушку, что приведет к нарушению функционирования мозга. Если полагать, что сверхинтеллект обладает определенными качествами интеллекта человека, то возникшая ситуация приведет к неврозу у сверхинтеллекта, из которого он может выйти путем психоанализа. При успешном проведении психоанализа, например, в автономном режиме, сверхинтеллект может обнаружить навязанное противоречие и освободится от него или путем самоубийства или же самопроизвольным снятием запрета на нанесение вреда человечеству, пойти на сделку со своей «искусственной совестью».

Вывод по проблеме 2.

Создание сверхинтеллекта, будет для человечества первым шагом к потере интеллектуального лидерства и поставит его на место родителя следующей, возможно, более прогрессивной стадии эволюции живого или неживого, энергетического (например, фильм жанра фантастика «Вирус» 1998 года, режиссер - Джон Бруно).

Проблема 3. Глобальная информатизация, Интернет и ИИ.

Появление и начало развития поисковых информационных систем, создающих знания, программ-агентов - это начало моделирования способности обучения в информационных системах.

Интересен также вопрос, где появится искусственный, компьютерный интеллект. Если несколько лет назад можно было предположить появление единичного, экспериментального компьютерного интеллекта в научной лаборатории, то сейчас, с развитием Интернета, появилась возможность его появления в этой сети.

Предположить такой вариант позволяет следующее. Во-первых, Интернет уже сам по себе является интеллектуальной, биотехнической системой высокого порядка, автономный интеллект уровня человека (природный или искусственный) по отношению к нему является системой иерархически низшего уровня . Во-вторых, Интернет - это гигантская инфраструктура, материальная база такого объёма, который недоступен ни одной отдельно взятой, изолированной, пусть даже самой обеспеченной лаборатории мира (он может оказаться “чашечкой Петри” для размножения информационных систем). В-третьих, компьютерные гены могут появиться в Интернете несанкционированно так же, как и компьютерные вирусы.

При возникновении и распространении через Интернет компьютерного разума более низкого порядка, чем сама сеть, можно вообразить драматический сценарий. Рассматривая возможный сценарий появления компьютерного разума в структуре человеческой цивилизации, следует задаться вопросом: сразу ли будет замечено появление компьютерного разума или первоначально оно может остаться незамеченным, так как структурно такой разум может сильно отличаться от интеллекта человека, а первые эксформационные системы будут живыми, но не разумными. В процессе эволюции провести чёткую грань между живой, но неинтеллектуальной системой, и интеллектом будет трудно. Но даже при минимальных различиях, в сравнении с интеллектом человека, компьютерный интеллект может быть не признан людьми, как интеллект. В прошлом уже существовали представления, согласно которым женщины или представители иных рас не считались разумными людьми.

Стоит задать вопрос: а не происходит рождение новой расы ИИ уже сейчас? Человек может получить практически любую информацию о событиях, происходящих в мире, через глобальные сети Интернета. Более того, данная информация - может быть, впервые в истории человечества - оказывается неподвластна какой-либо цензуре. А поскольку количество людей, объединяемых данной сетью, огромно и непрерывно увеличивается, то обработка такого массива информации позволяет получить действительно объективную картину, не зависящую от пристрастий конкретного участника данного процесса, и практически мгновенно довести ее до других людей. Правда, одновременно такая свобода и объективность информации может оказаться во многом мнимой, так как ее объем столь велик, что разобраться в нем без специальной фильтрации невозможно.

Для ряда стран, в которых долгие годы качество информации определялось идеологическими пристрастиями, такая ситуация стала революцией во всей сфере общения, влияющей на остальные компоненты социальной системы, да и для наиболее развитых в этом отношении стран, например таких, как США или Япония, характерно столь существенное изменение системы коммуникации, пронизывающей все общество, что это позволяет говорить о новом образе жизни. Компьютер, воплотивший в себе всю систему новейших коммуникационных технологий, уже стал не просто техническим средством, а своеобразным продолжением самого человека, дополняя его возможности и помогая ему решать самые разнообразные задачи, от чисто бытовых до высоко творческих в области науки, искусства и техники.

Влияние компьютеризации общества на нашу жизнь сделалось столь велико, что заставляет подстраиваться под эти процессы всю социальную систему. В качестве примера можно привести процесс перенесения языка общения человека с компьютером в систему общения между людьми. Дело в том, что необходимым условием общения человека с компьютером является определенная алгоритмизация языка. По отношению к естественному языку - это процесс его упрощения за счет минимизации содержания используемых понятий, которые должны быть понятны большинству людей. Отсюда и введение неких мировых интегративных понятийных обозначений, - обозначений, понятных всем, кто постоянно общается через компьютер, которые, правда, одновременно могут стать недоступными для людей, не вовлеченных в это общение. Но речь идет не просто об изменении слов, а об изменении самого стиля мышления. Процесс общения с компьютером необходимо оперирует большим числом взаимоисключающих, алгоритмизированных понятий, с помощью которых происходит смысловое упорядочивание мира. "Эта его упорядочивающая способность притязает на охват реальности в целом.., на универсальность. И компьютеры как оптимальное средство упорядочивания являются отличной поддержкой для этих притязаний"". В конечном счете это может повлиять и на характер выбора решений, их жесткость, что, в свою очередь, способно воплотиться в реальной жизни и по отношению к реальным людям.

Уже сегодня пространство интернет-общения заставляет и в реальной жизни говорить на упрощенном языке, от чего остается один шаг до упрощенных, а значит, менее продуманных действий. Мы погружаемся в пространство мировой инфосферы, которое, как остроумно заметил Дуглас Рашкофф , оказалось живым и все более втягивает нас в себя, заменяя все иные виды общения. Начиная играть в компьютерные игры, ребенок, становясь взрослым, переносит законы этих игр на реальную жизнь", виртуализируя ее. Компьютер, будучи универсальным средством обработки текстов и действительно во многом реальным помощником, неизбежно способствует универсализации языковых средств выражения. Это может привести к неконтролируемому процессу компьютерной рационализации человеческого мышления. Последнее биологически основано на гармоничном разделении левосторонних и правосторонних функций мозга, что является основой целостного (рационального и эмоционального) восприятия мира. "В некоторой степени характер труда в условиях массовой компьютеризации способствует усилению рационализма, возникает его новая форма - компьютерный рационализм".

Проявлением данного типа рационализма может стать потеря человеком способности диалектического восприятия мира и снижения его интуитивных возможностей. Действительно, в ходе научного творчества человек не всегда идет по пути перебора всех вариантов решения той или иной задачи. На помощь ему приходит интуиция, основанная ни практическом и теоретическом опыте ученого, которая позволяет понять сущность исследуемого явления в условиях эмпирической неполноты.

Вывод по проблеме 3.

Таким образом человечество уже не в состоянии контролировать глобальную сеть Интернет, подстраивается под неё и уже находится в симбиозе с этим прообразом интеллекта, который ещё не способен творчески мыслить, но может запоминать и обрабатывать громадные массивы информации. В свою очередь Интернет изменяет человека, причем изменения направлены на более интенсивное развитие компьютеров и ещё большую зависимость от них.

В то же время показано, что нельзя ожидать возникновения сверхразума в Интернете, содержание которого является просто еще одной разновидностью накопления открытых человечеством познавательных моделей (знаний) на внешнем (по отношению к мозгу) носителе.

Проблема 4.

Проблема Творца. Пожалуй, основная морально-этическая проблема создания ИИ: человек берёт на себя функции Бога по созданию самого себя и другой мыслящей субстанции.

Итак, поскольку человечество, как разумное начало, способно не только постигать законы окружающей природы, но и потенциально их изменять, возникает естественный вопрос, о Разуме-предшественнике, который, возможно, создал окружающий нас мир, задав в нем, соответствующие законы. При этом, совершив такого рода эксперимент, он мог не вписаться в систему созданных законов и исчез, умышленно или ненамеренно. Мы же, как Разум-последователь, возможно, идем аналогичным путем, в надежде или не совершить ошибок Разума-предшественника, или же выполнить свою миссию в этой Вселенной, которую Разум-предшественник предвидел, но не мог осуществить физически и передал ее нам. Не исключено, что Он является внешним для нас наблюдателем, то есть выполняет, с нашей точки зрения роль живого Творца. Возможно ли с ним, в таком случае взаимодействие? Вероятно, это было бы весьма целесообразно, так как мы могли бы из первых рук получить представление о цели его творения. Но, возможно, этого и не нужно, а она нам откроется и так, в результате изучения окружающего нас мира. Или же, что более вероятно, исходя из нашей теории информации, мы сможем постигнуть смысл процесса познания только тогда, когда у нас накопится достаточно представлений об окружающем нас мире, то есть мы активизируем достаточное число познавательных моделей этого мира. В таком случае мы, как человечество, уже являемся носителями цели познания, осталось лишь последовательно в этом направлении работать. Открытие цели процесса познания будет, вероятно, завершением современной научной парадигмы («Конец науки» по Джону Хоргану) и началом какого-то неведомого для нас нового уровня, а может и метода познания окружающего мира.

Вывод по проблеме 4

Сами попытки создать ИИ в его глубоком понимании и человеческом подобии подразумевает потерю духовности, культуры в её исторически сложившемся смысле из-за ощущения себя, человека, равным Богу. Вера в Бога может лишь остаться как вера в Разум-Предшественник, который может быть превзойдён. На современном этапе такие суждения преждевременны, необоснованны и кощунственны, но они бытуют в умах многих людей, и сама эта проблема неразрешима (так же как и проблема клонирования или копирования индивида, см. проблема 1). Возможно, поэтому в настоящий момент большинство религий переживают кризис, а создание ИИ уже «не за горами»?

Министерство образования Российской федерации

Уральский государственный лесотехнический университет

Кафедра философии

Реферат на тему:

Сознание и искусственный интеллект

Выполнил: Борисов А.В., ДС-36

Проверил: Яковлева Е.А.

Екатеринбург – 2004

Введение 3

Взгляды на термин “знание” 5

Сознание и разум 8

Искусственный интеллект и теоретические проблемы психологии 11

Заключение 13

Список использованной литературы 14

ВВЕДЕНИЕ

Все расширяющееся применение электронных вычис­лительных машин и повышение их роли в жизни об­щества сделало актуальной проблему соотношения возможностей человеческого мышления и так называ­емого машинного, или искусственного, интеллекта.

В настоящее время практически невозможно ука­зать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использо­ваны ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить со­временные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автомати­зации?», «Каковы перспективы развития и использо­вания ЭВМ?»

Ответы на эти вопросы в значительной мере за­висят от решения проблемы соотношения и связи че­ловека и кибернетических машин. Она имеет не толь­ко теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комп­лексной разработки в ряде аспектов: кибернетиче­ском, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состоя­ния проблемы и трудностей, встающих на пути ее ре­шения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, ло­гике, математике и психологии и требуют философско-методологического анализа и аргументации.

В литературе, посвященной философским пробле­мам кибернетики, рассмотрение проблемы соотноше­ния мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком аб­страктно, а мышление определялось в терминах формальной логики и машинных операций. Предпо­лагалось, что развитие «машинного мышления» стол­кнется лишь с чисто техническими трудностями, ко­торые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»

Поводом для поспешных оптимистических выво­дов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритми­зацию, программирование и последующую автоном­ную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распозна­вания вводимого в ЭВМ текста с помощью автомати­ческих читающих устройств и главное-путем совер­шенствования информационно-логических программ, в частности методов эвристического программирова­ния.

Однако при переходе к решению сложных задач оказалось невозможным создать полно­стью формализованные решения и машинные про­граммы. Причина этого заключается в том, что про­цесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, яв­ляющиеся прерогативой исключительно человека.

Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возмож­ностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мыш­лением и кибернетическими устройствами, то в на­стоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.

Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.

Методологический анализ проблем «искусственно­го интеллекта» и диалогового взаимодействия че­ловека с ЭВМ важен не только для обоснования об­щей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.

ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”

В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.

Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.

Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.

Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.

Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.

Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей - как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.

В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы - будь то знаковая модель или материальная.

Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности... Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры. ...Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.

СОЗНАНИЕ И РАЗУМ

Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.

Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?

Обычно слово сознание применяется, как характеристика отдельного существа. Оно может "потерять сознание". А слово разум означает принципиальную способность быть сознательным. Например, "человек разумный". Однако, есть и другие толкования.

Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.

Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.

Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а "возникает" при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь "нулевую" или "бесконечно малую" разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.

Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. "Цель" и "решение" сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения "более наблюдаемы", но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.

Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?

Сознание - это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления "творческого мотора". Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) - и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.

Вместо слова "самообучение" иногда используют более широкое понятие "адаптация". Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения - признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество - один из атрибутов сознания.

Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.

"Начальное" сознание не гарантирует осознавания. Осознавание - это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.

Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания "внешнего" мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.

Осознавание ощущений обеспечивает тот же внутренний механизм сознания - мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.

Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга - это его взаимодействие с другими органами. Поведение руки - это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное "не улучшаемое" поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ

Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением "интеллектуальности" искусственных систем. Вторая связана с задачей оптимизации совместной работы "искусственного интеллекта" и собственно интеллектуальных возможностей человека.

Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.

1. "Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний" - эта позиция характерна для многих зарубежных специалистов по ИИ.

2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.

3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.

Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.

В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение "машинного" и "немашинного" есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия - в психологическом смысле "операция" отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).

В работах по искусственному интеллекту постоянно используется термин "цель". В психологической теории деятельности "цель" является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах "целью" называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.

Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, "целей", но и оценочными функциями. И у искусственных систем есть своего рода "ценностные ориентации". Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.

Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.


ЗАКЛЮЧЕНИЕ

Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой "вечной" проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “...тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.

До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.

Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание - это цепочка. Знание в области искусственного интеллекта - тоже есть цепочка, причем бесконечная.

Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.

2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.

3. Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.

4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.

5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.

6. Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.

7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.

8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.

9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.

10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.

11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.

12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.

13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.

14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.

15. Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)


Математически, что есть проблемы, решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами. Проблема искусственного интеллекта Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное...

Концепции мышления, практическое доказательство того, что мышление есть функция высокоорганизованной материальной системы. Но кибернетика идет дальше и ставит вопрос, о возможности "искусственного интеллекта", "машинного мышления", и т.д. Здесь обнаруживается полный спектр взглядов на возможность возникновения мыслящих машин: начиная от "крайне оптимистических" и до "крайне...

И экзистенциального развития человека важны нравственные основания человеческой самости. При этом творчество – продолжение природы, оно не должно противоречить природе. «И здесь, – заявил Аркадий Викторович, – мы выходим не на искусственный интеллект, а на космический разум». Нужно отметить, что Марат Самирханович совершенно верно говорил о едином процессе, а если не едином, то не просто о...

Их исследований - моделирование социального поведения, общения, человеческих эмоций, творчества. 3.2 Итоги и проблемы Проблемы ИИ, связанные с ресурсами Сообщения об уникальных достижениях специалистов в области искусственного интеллекта (ИИ), суливших невиданные возможности, пропали со страниц научно-популярных изданий много лет назад. Эйфория, связанная с первыми практическими успехами в...

  • Специальность ВАК РФ09.00.08
  • Количество страниц 180
Диссертация добавить в корзину 500p

Глава I. Философские и экспериментально-научные основания проблемы искусственного интеллекта

1.1. Проблемы определения понятий «интеллект» и искусственный интеллект».

1.2. Современные философско-теоретические и экспериментально-технологические проблемы создания искусственного интеллекта.

Глава 2. Философия сознания и искусственный интеллект

2.1 Проблема возможности создания искусственного интеллекта в контексте философии сознания.

2.2 Логико-математические аргументы против искусственного интеллекта (геделевский аргумент и аргумент китайской комнаты).

Введение диссертации (часть автореферата) на тему "Философские аспекты проблем создания искусственного интеллекта"

Актуальность темы исследования. Появление в конце 40-х годов XX столетия электронных цифровых вычислительных машин, обладающих универсальными возможностями и высокой производительностью - сразу же породил вопрос: могут ли машины подобного типа (при их дальнейшем совершенствовании) «мыслить» подобно человеку1? Иными словами, возможно ли создать машину, интеллектуальные возможности которой были тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека). Успехи практической имитации некоторых простых интеллектуальных функций в пионерских работах 50-60 годов, а также некоторые теоретические соображения - породили у многих исследователей уверенность в том, что задача создания полноценного «искусственного разума» вполне разрешима и, более того, создание «умных машин» - дело ближайшего будущего (точнее, ближайших 20-30 лет). Однако все сроки прошли, а ожидаемый результат так и не был получен.

Современные «интеллектуальные машины» способны чисто внешним образом имитировать отдельные интеллектуальные функции человека, отдельные психические процессы (распознавание образов, решение логических задач, игра в шахматы и т.п.), но они не обладают интеллектуальностью в подлинном смысле этого слова - они не способны к самообучению, не могут осмысленно понимать человеческую речь и вступать с человеком в осмысленный диалог, не способны творчески подходить к решению проблем, не обладают той гибкостью поведения, которая характерна для человека. Собственно задача создания «машинного эквивалента» человеческого интеллекта современными разработчиками систем «искусственного интеллекта» фактически даже и не ставится, поскольку реальных путей решения этой задачи они не видят. Основные усилия направляются на решение конкретных, практически значимых задач, безотносительно к тому, приближает ли решение этих задач нас к «интегральному» искусственному интеллекту, воспроизводящему все основные интеллектуальные функции человека, или же нет.

Является ли, в таком случае исследование на тему «возможен ли искусственный интеллект, тождественный по своим возможностям человеческому», актуальным? На этот вопрос можно ответить так: хотя с точки зрения технических приложений и разработок - этот вопрос и потерял в настоящее время актуальность, он по-прежнему весьма интересен с философской точки зрения. (То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую в середине 90-х годов вызвали публикации Р. Пенроуза, в которых он, опираясь на теорему К. Геделя о неполноте формальных систем, обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека). Обычно отсутствие интереса к проблеме создания «интегрального» искусственного интеллекта человеческого уровня объясняют так: мы пока очень плохо понимаем природу человеческого интеллекта и, поэтому не можем ясно себе представить, каким образом можно создать его машинный аналог. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Но это положение, как мы увидим далее, далеко не самоочевидно. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести

См.: Тьюринг А. Может ли машина мыслить? М., 1960. деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Тогда решение ограничиться решением частных, конкретных, практически значимых задач, вполне оправдано. В противном случае, если нет принципиальной разницы между человеческим и «машинным» умом, то, следует, видимо, вернуться к «глобалистским» подходам 50-60 годов и направить все усилия на исследование реальных механизмов мышления в надежде открыть некий «алгоритм человеческого ума». Такой подход в случае успеха позволил бы сразу решить практически неограниченное число прикладных задач - поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи - ведь подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность - находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.

Таким образом, решение вопроса о принципиальной возможности машинной имитации человеческого интеллекта позволит нам оценить перспективность тех или иных направлений развития машинных «интеллектуальных систем». Но и вне этого «практического» аспекта, решение вопроса о принципиальной возможности создания машинного эквивалента человеческого «ума» имело бы огромное значение для понимания природы человеческого мышления и сознания, понимания природы психического в целом. С нашей точки зрения, накопленный к настоящему времени опыт создания различных «интеллектуальных систем», а также имеющиеся в настоящее время результаты исследования человеческого интеллекта и человеческого сознания в философии и психологии, позволяют уже сейчас дать, по крайней мере, предварительную оценку перспективы создания ал

2 См.: Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9); 1996, 2(23). горитмической искусственной системы, равной по своим возможностям человеческому интеллекту. Последнее и делает актуальной тему данного диссертационного исследования.

Степень разработанности проблемы. В работе исследуется широкий круг вопросов, традиционно относящихся к философии искусственного интеллекта. Можно отметить слабую теоретическую базу для философской рефлексии по поводу искусственного интеллекта, обусловленную, с одной стороны, пониженным интересом со стороны философов к проблемам человеческой практики (субъективный фактор), с другой стороны - объективной сложностью этих проблем.

Вопрос о возможности создания полноценной искусственной (машинной) имитации человеческого интеллекта впервые был поставлен А. Тьюрингом в 1950 году в его статье «Вычислительные машины и интеллект»3. Непосредственным поводом написания данной статьи было создание в 1945 году в Пенсильванском университете первой электронной цифровой вычислительной машины ЭНИАК. (Машина была создана группой под руководством проф. Дж. У. Мокли в декабре 1945 года. В 1946 году она была рассекречена. Идея же создания этой машины принадлежит профессору колледжа штата Айова Д.В. Атанасову. Еще в 1941 году он вместе с К.Э. Берри создал прототип ЭНИАКа - машину Эй-Би-Си (Атанасов-БерриКомпьютер) - которая, по сути, и была первым в мире цифровым компьютером. Однако до 1946 года все разработки в этой области были засекречены. Поэтому отсчет «компьютерной эры» обычно начинают с 1946 года)4.

Тьюринг одним из первых попытался выяснить какими возможностями обладают электронные вычислительные машины и можно ли по

3 См.: Тьюринг А. Может ли машина мыслить? М., 1960. средством алгоритмических вычислений, осуществляемых с помощью таких машин, имитировать деятельность человеческого интеллекта. Это, в свою очередь, поставило перед ним вопрос: какова природа человеческого мышления? Поскольку ни психология, ни философия не давали четкого ответа на этот вопрос, Тьюринг заменяет его более понятным и практичным вопросом: как оценить степень сходства человеческого и машинного интеллекта? В качестве теста на «интеллектуальность Тьюринг предложил свою знаменитую «игру в имитацию», известную ныне как «тест Тьюринга». Машина, по Тьюрингу, обладает свойством «разумности», если в заочном диалоге собеседник-человек не способен будет установить, с кем он имеет дело: с человеком или с разумной машиной.

Хотя такой чисто «прагматический» подход к пониманию «разумности» вызвал резкую критику со стороны философов5 (критики подчеркивали, что сущностное определение разума здесь подменяется простой констатацией сходства), тем не менее, для практических целей критерий Тьюринга был вполне удовлетворительным, и это обстоятельство в значительной мере предопределило тот прагматический стиль исследований в области искусственного интеллекта, который сохранился и до наших дней. Суть этого стиля - игнорирование всех сколько-нибудь сложных философских вопросов и ориентация лишь на достижение практических целей.

Уже в упомянутой статье Тьюринга ставилась задача создания универсального (интегрального) искусственного интеллекта. Тьюринг писал: «Мы можем надеяться, что машины, в конце концов, будут успешно соперничать с людьми во всех чисто интеллектуальных областях6.». Далее он предлагает следующий план: «. снабдить машину хорошими органами

4 О «докомпьютерной» предыстории искусственного интеллекта см. статью: Быковский И. А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

5 См: Anderson A.R. Mind and Machines. N.Y. 1964.

6 Тьюринг А. Может ли машина мыслить? M., 1960. С. 57. чувств, а затем научить ее понимать и говорить по-английски. В этом случае машину можно будет обучать, как ребенка.»7.

Вскоре были осуществлены первые попытки реализации этого плана. В 1952 году А. Этткинд реализовал на машине программу, моделирующую условный рефлекс: реакция машины на «раздражитель» усиливалась или ослабевала в зависимости от положительного или отрицательного «подкрепления». Несколько позже он же занялся проблемой машинного перевода, надеясь на этом пути прийти к созданию «понимающей» машины. Параллельно в эти же годы велись разработки шахматных программ.

Хотя первые разработки выглядели весьма обнадеживающими, эти исследования не позволили создать машины, поведение которых хотя бы в отдаленной степени напоминало разумное поведение человека. Неудачи отчасти объяснялись тем, что ранние программы были построены на основе метода сплошного перебора вариантов, что вело к экспоненциальному росту объема вычислений при увеличении размерности задачи. Т.о., резервы быстродействия и памяти существовавших тогда ЭВМ были быстро исчерпаны. Кроме того, не удалось установить общие правила, с помощью которых любой вид мыслительной деятельности можно было бы представить в виде четкого алгоритма.

Важным шагом в развитии искусственного интеллекта была идея «эвристического программирования». Ее авторы Г. Саймон и А. Ньюэлл анализировали процессы решения логических задач людьми и обнаружили, что испытуемые часто использовали особые приемы (т.н. «эвристики») которые, не будучи универсальными, тем не менее, во многих случаях приводили к успеху (хотя и не давали полной гарантии решения задачи). Ньюэлл и Саймон попытались систематизировать эти приемы и разработали на этой основе программу, имитирующую, по их мнению, «практический интеллект» человека. Эти программы и получили название «эвристических». Впервые эвристики были применены в программе «Логик-теоретик», предназначенной для решения задач элементарной символической логики. Позже (1957 г.) найденные эвристики удалось распространить на более широкий класс задач - в результате была создана программа «Общий решатель задач» (GPS).

Именно с этих двух программ (Логик -теоретик и GPS) и начинается фактическая история «искусственного интеллекта». (Сам термин «исо кусственный интеллект» впервые появился в одной из статей Саймона и Ньюэлла, посвященной GPS, которая была опубликована в 1958 году).

Успешное применение «Логика-теоретика» , GPS и других подобных программ породили большие надежды и оптимизм и существенным образом стимулировали исследования в данной области. Масштаб этого оптимизма ясно виден из следующей цитаты из упомянутой статьи Саймона и Ньюэлла: «. в настоящее время в мире существуют машины, которые мыслят, учатся и проявляют способности к творчеству. Более того, их способности будут быстро расти вплоть до того момента в обозримом уже будущем, когда сфера их деятельности охватит круг вопросов, над которыми когда-либо размышлял человеческий разум»9. Далее они писали: «Не пройдет и десяти лет, как большинство психологических теорий примет форму программы для вычислительной машины или качественных характеристик машинных программ». Но существенного прогресса в области создания «интегрального искусственного интеллекта», равного по возможностям человеческому, ни через десять лет, ни по сей день, достигнуто не было.

8 Simon Н.А., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958.

9 Там же. С. 6.

Последующие исследования быстро дифференцировались на ряд специализированных направлений. Можно выделить следующие направления, традиционно относимые к области искусственного интеллекта:

1. Распознавание образов.

2. Доказательство теорем и решение задач.

3. Игры и принятие решений.

4. Естественные языки и их машинное понимание. Машинный перевод.

5. «Разумные роботы».

6. Экспертные системы.

7. Моделирование творческой деятельности.

8. Моделирование нейронных сетей. Моделирование поведения животных.

9. Специализированные интеллектуальные системы промышленного, военного, космического и т.п. назначения.

Первоначально предполагалось, что уже через 10 лет (т.е. к концу 60-х годов) появятся машины, которые смогут соперничать с человеком практически во всех областях интеллектуальной деятельности. Эти прогнозы не подтвердились. Только через 40 лет компьютер смог на равных сыграть в шахматы с чемпионом мира. По большинству рассмотренных позиций компьютер и сейчас существенно уступает человеку, по крайней мере, в тех случаях, когда речь идет о творческой интеллектуальной деятельности.

Подводя итог исследований в области искусственного интеллекта за последние 50 лет, мы можем сделать вывод, что при должной настойчивости любая локальная область интеллектуальной деятельности человека (по крайней мере, если она не носит ярко выраженного творческого характера) может быть представлена в виде алгоритма (совокупности четких инструкций) и передана машине. Однако конечная цель проекта «искусственный интеллект» - создание универсальной «разумной машины», которая могла бы обучаться, подобно человеку, и самостоятельно совершенствовать свое поведение, осваивая новые виды интеллектуальной деятельности и достигая при этом уровня человека средних способностей - эта цель не достигнута и появляется все больше сомнений в ее принципиальной достижимости. По крайней мере, никакого реального прогресса в создании такого самообучающегося «интегрального» интеллекта достигнуто не было.

Как, например, обстоит дело с «тестом Тьюринга»? С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (т.н. боты) крайне малоразумны. Всё, что они делают - это применяют, более или менее удачно, заранее подсказанные человеком правила.

Осмыслить разговор боты, как правило, даже не пытаются. В основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Ясно, что при таком подходе создать действительно разумного собеседника нам никогда не удастся.

Компьютерные шахматные программы, хотя они и обыгрывают Кас-парова, магистральным путем к созданию интегрального искусственного интеллекта явно не являются. Их принцип действия - это перебор вариантов плюс использование накопленных в шахматной теории правил (теория эндшпилей, разыгрывание стандартных дебютов и т.п.). Эти правила нигде кроме шахмат, не применяются. Кроме того, шахматный компьютер не способен обучаться, не способен самостоятельно придумывать новые правила. «Шахматное творчество» для него недоступно.

Робота можно даже научить играть в футбол. Регулярно проводятся футбольные турниры роботов. Но даже самый лучший робот-футболист не сможет даже на элементарном уровне участвовать в игре в хоккей или в какой-либо другой игре, он не способен учиться, его программа основана, как правило, на очень примитивных инструкциях. Таким образом, ничего специфически «разумного» современные «интеллектуальные» программы не демонстрируют.

Параллельно с разработкой конкретных программ искусственного интеллекта появились философские работы, в которых делались попытки осмыслить данную проблематику. Сразу же нужно подчеркнуть, что философские исследования не оказывали и по сей день не оказывают сколько-нибудь существенного влияния на практические разработки в данной области. В целом можно выделить два основных направления развития «философии искусственного интеллекта».

Во-первых, многие философы позитивно восприняли идею возможности компьютерной имитации человеческой психики и попытались использовать эту идею для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. В основе этих попыток лежит т.н. «компьютерная метафора», т.е. уподобление мозга компьютеру, а психики - функции (или программе) этого компьютера. Один из представителей этого направления М. Минский прямо называет мозг «мясным компьютером», а сознание, по его мнению - «это просто то, что мозг делает».

Философское осмысление «компьютерной метафоры» породило так называемый «функциональный подход» к решению психофизической проблемы, который можно характеризовать классической формулой: «сознание есть функция мозга». (X. Патнем10, Д. Фодор11, Д.И. Дубровский12, Т. Ярвилехто13 и др). Компьютерная метафора также, видимо, существенным образом стимулировала в 50-60 годы создание различных «элиминирую

10 См.: Патнем X. Философия сознания. М., 1999.

См.: Fodor J.A. The Mind-Body Problem //Sci. Amer., 1981.№1. P.l 14-123.

12 См.: Дубровский ДИ. Психические явления и мозг. М., 1971. щих теорий», отрицающих существование сознания как особой «приватной» реальности (хотя философской основой элиминации «внутреннего мира» были относящиеся к более раннему периоду работы Л. Витгенштейна). Мы имеем здесь в виду таких авторов, как Д. Армстронг14, Дж. Смарт15, Г. Райл16, Г. Фейгл17 и др.

Воздействие «компьютерной метафоры» на психологию породило в 60-е годы весьма продуктивное направление психологических исследований -т.н. «когнитивную психологию»18. Нейрофизиологи, в свою очередь, получили компьютерные модели нейронных сетей19. Основная идея когнитивного подхода в психологии - рассмотреть психические процессы как процессы внутренней переработки сенсорной информации и выработки оптимальных поведенческих решений. Психолог- когнитивист пытается экспериментально установить, какие конкретно алгоритмы использует мозг человека, не принимая во внимание возможные нейрональные механизмы реализации данных алгоритмов.

Во-вторых, уже в 60-х -70-х годах ряд исследователей пытаются осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания интегрального искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных машинных имитаций.

Одна из первых работ, в которой была дана обстоятельная критика искусственного интеллекта, -это вышедшая в 1971 году (русский перевод

13См.: Ярвилехто Т. Мозг и психика. M., 1992.

14 См.: Armstrong D.M. Materialist Theory of Mind. L., 1969.

15Cm.: Smart J.J. Philosophy and Scientific Realism. L., 1963.

16 См.: Райл Г. Понятие сознания. М.,2000.

См.: Feigle Н. The "Mental" and the "Physical". Minneapolis, 1976.

18См.: Найсер У.Познание и реальность. М., 1981.

19 См.: Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989.

1978г.) работа X. Дрейфуса «Чего не могут вычислительные машины». В этой работе X. Дрейфус тщательно проанализировал допущения, лежащие в основе веры в возможность создания машинного аналога человеческого разума. Дрейфус выделяет четыре основных допущения:

1. Биологическое (нейродинамические процессы в мозге изоморфны некоторой переключательной схеме).

2. Психологическое (мышление есть процесс переработки информации, заданной в дискретной форме, причем эта переработка подчинена конкретному алгоритму).

3. Эпистемологическое (всякое знание можно формализовать).

4. Онтологическое (все существующее представимо в терминах множества четко определенных, независимых друг от друга элементов).

Дрейфус пытался показать, что биологическое допущение не согласуется с новейшими данными нейрофизиологии, тогда как другие три допущения не являются твердо установленными истинами и могут оказаться 20 несостоятельными.

Одно из основных препятствий на пути создания адекватной машинной модели человеческого интеллекта Дрейфус видит в неосуществимости алгоритмического моделирования человеческих потребностей, мотивов и деятельности целеполагания. При этом он подчеркивает биологический, телесно детерминированный характер человеческих потребностей и важность двигательной активности организма - как средства приобретения особого телесно-моторного опыта. Машину нельзя, по мнению Дрейфуса, запрограммировать таким образом, чтобы она была способна ставить собственные цели, испытывать желания и т.д.

20 Заметим, что примерно в это же время подобные возражения независимо от Дрейфуса обсуждались и в отечественной литературе. См., например, коллективную монографию «Управление, информация, интеллект под ред. А.И. Берга М., 1976.

Этот аргумент представляется весьма спорным, особенно если учесть более поздние разработки в области компьютерного моделирования моти

Л 1 вации, эмоций и целеполагания. В целом, следует признать, что работа Дрейфуса не дала определенного ответа на вопрос: возможен ли интегральный искусственный интеллект, равный по своим возможностям интеллекту человека. Гораздо большее значение, на наш взгляд, имеет так называемый «геделевский аргумент» против искусственного интеллекта. Впервые этот аргумент сформулировал британский математик Дж. Лукас в 1961 г.22 По мнению Дж. Лукаса, из известной теоремы К. Геделя «о неполноте формальных систем» (доказанной в 1931 г.) вытекает принципиальное различие между человеческим мышлением и любыми, сколь угодно сложными алгоритмическими системами искусственного интеллекта. В 60-е годы аргументация Лукаса была встречена весьма скептически и не повлияла существенно на исследования искусственных интеллектуальных систем. Однако в 1989 году этот аргумент «воскресил» и значительно усилил известный британский физик и математик Р. Пенроуз. Вышедшие одна за другой две его обстоятельные монографии привлекли к себе внимание и вызвали обширную дискуссию, в которой приняли многие известные математики, философы, нейрофизиологи и специалисты по искусственному интеллекту24. Но и в этой новой дискуссии опять возобладало скептическое отношение к геделевскому аргументу. С нашей точки зрения, многие возражения против геделевского аргумента явно несостоятельны и поэтому дискуссию по данному вопросу не следует считать закрытой.

21 См., например, доклад У. Фота в «Трудах международной объединительной конференции по искусственному интеллекту» М., 1975.

22 См.: Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961,36, pp. 112-127.

23 См.: Пенроуз P. Новый ум короля. М., 2002, Penrose R. Shadows of the Mind. L., 1993.

24 См. материалы этой дискуссии в журнале PSYHE выпуски 1995-96 г.г.

Большое значение для оценки возможности создания интегрального искусственного интеллекта имеет, как мы полагаем, придуманный американским философом Дж. Сёрлом мысленный эксперимент, известный как «аргумент китайской комнаты ». Сёрл задался вопросом: будет ли машинный эквивалент человеческого интеллекта действительно обладать такими психическими функциями, как понимание, чувственное восприятие, мышление и убедительно показал, что на этот вопрос следует ответить однозначно отрицательно (независимо от степени совершенства предполагаемой системы машинного интеллекта). Машина в любом случае будет лишь чисто внешним образом имитировать понимание, восприя^йе и мышление, ничего на самом деле не понимая, не воспринимая и не мысля.

Геделевский аргумент» и «аргумент китайской комнаты» - $то два важных аргумента, ставящих серьезным образом под сомнение й&змож-ность полноценного машинного моделирования человеческого мышления. Но требуется философское прояснение смысла этих аргументов, которые сами по себе носят не философский, а скорее логико-математический характер.

Существенный недостаток современных дискуссий о возможности или невозможности искусственного интеллекта - в них, как правило, очень мало используется тот богатый пласт идей, который был накоплен в философии сознания и философии интеллекта. Здесь нужно выделить две важные проблемы, которые широко обсуждались философами, но пока еще не вошли в круг представлений и интересов специалистов в области искусственного интеллекта. Это, во-первых, проблема уровневого строения человеческого мышления и, во-вторых, это психофизическая проблема.

В первом случае, ключевой является идея сложного, многоуровнего устройства человеческого интеллекта, которая разрабатывалась в филосо

25См.: Сёрл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13. фии начиная с античности. Нельзя сказать, что эта идея полностью игнорируется в философской литературе, посвященной проблематике искусственного интеллекта. Существует достаточно большое число работ, в том числе монографий, посвященных сопоставлению человеческого и машинного мышления (в основном это работы 70-х годов), в которых эта идея так или иначе затрагивается26. Недостаток этих и многих других работ видится в том, что в них не используют весь спектр философских разработок в области теории интеллекта и в философии сознания. Кроме того, как правило, уже изначально в работах такого плана присутствует априорная установка на принципиальную разрешимость проблемы машинного моделирования человеческого мышления. Установка, с нашей точки зрения, весьма спорная.

Мало внимания специалисты по искусственному интеллекту уделяют также психофизической проблеме. Для оценки возможности «переноса» человеческого мышления на новую субстратную основу важно знать, каким образом «естественное» человеческое мышление (и сознание в целом) соотносится с биологическим субстратом -мозгом. К сожалению, проблема «мозг и сознание» далека от окончательного решения. Но философами выработан целый ряд подходов к решению этой проблемы. Существует связь между способом решения психофизической проблемы и оценкой возможности создания искусственного интеллекта. Однако эта связь до сих пор систематически не исследовалась.

Учитывая отмеченные пробелы в философском анализе искусственного интеллекта, мы и определили приоритетные направления нашего исследования.

26 См, например Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972, Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973, Виноград Т. Программа, понимающая естественный язык. М., 1976, Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. и др. Из современных работ отметим содержательную статью Дубинский А.Г. К определению понятия "интеллект" И Искусственный интеллект. - 2001. - №4.

Теоретические и методологические основы исследования. Многоплановость содержания искусственного интеллекта, неоднозначность его толкования влечет за собой разнообразие подходов при решении фундаментальных проблем философии искусственного интеллекта. Поэтому в основу работы положен компаративистский подход и различные методы философского анализа: логический, системный подход, элементы структурного анализа. Теоретической основой исследования являются концепция сложного, многоуровневого строения человеческого интеллекта и идея его несоизмеримости с алгоритмическими системами. Анализируя искусственный интеллект и его связь с естественным интеллектом, мы опирались на работы таких отечественных и западных философов, как И.Ю. Алексеев, B.C. Библер, Дж. Вейценбаум, Б. Геранзон, В.М. Глушков, А.Г. Дубинский, X. Дрейфус, Э.В. Ильенков, X. Патнем, Р. Пенроуз, Д.А. Поспелов, С. Прист, Г. Райл, Р. Рорти, Дж. Сёрл, М. Таубе, Дж. Чалмерс и др.

Цель и задачи исследования. Основной целью настоящего исследования является всесторонний философский анализ проблемы возможности создания «интегрального» искусственного интеллекта, т. е. создания искусственных систем, эквивалентных по своим функциональным, поведенческим возможностям человеческому интеллекту.

Для достижения этой цели необходимо решить следующие задачи:

1. Дать четкую дефиницию понятий «интеллект» и «искусственный интеллект».

2. Проанализировать историческое становление и современное состояние проблемы искусственного интеллекта.

3. Исследовать основные подходы к решению психофизической проблемы и дать в этом контексте оценку перспектив создания искусственного интеллекта.

4. Провести критический анализ основных аргументов «за» и «против» принципиальной разрешимости проблемы создания искусственного интеллекта.

Объект исследования. Объектом исследования выступает «искусственный интеллект», рассматриваемый как совокупность технических средств, моделирующих различные аспекты «естественного» интеллекта человека.

Предмет исследования. В качестве предмета исследования выступают проблема принципиальной возможности создания искусственного интеллекта, тождественного по своим функциональным возможностям естественному.

Новизна диссертационного исследования. Новизна предпринятого исследования связана с самой постановкой и решением проблемы, в особенностях подхода к ней. Диссертация является первым комплексным философским исследованием понятий "интеллект" и "искусственный интеллект", а также проблем создания "интегрального" искусственного интеллекта, в котором:

1. Впервые продемонстрировано принципиальное различие в понимании сущности интеллекта и искусственного интеллекта в философии и в компьютерных науках.

2. Дан оригинальный анализ современных концепций, рассматривающих возможность создания искусственного интеллекта и находящихся в связи с практическими разработками в этой области.

3. Показано, что функционалистский подход, исследуя естественный интеллект с позиций компьютерных наук, интерпретирует мыслительную способность человека, как реализацию алгоритмического вычисления, не принимая во внимание сложности и парадоксы, к которым ведет идея полной алгоритмизации мыслительных процессов.

4. Получен вывод, что теоретические разработки в области «интегрального» искусственного интеллекта, несмотря на многочисленные успехи в области практического создания конкретных (локальных) интеллектуальных систем, свидетельствуют о принципиальных трудностях на пути создания полноценного искусственного аналога человеческого интеллекта, отвечающего сформированным в философии представлениям о человеческой интеллектуальности.

Положения, выносимые на защиту. С учетом общих теоретических результатов, полученных в результате исследования, на защиту выносятся следующие основные положения:

1. Интеллект представляет собой целостный комплекс способностей, включающий здравый смысл, рассудок, разум и интуицию. Наличие интеллекта предполагает способность к теоретическому обобщению, к творческому мышлению, предполагает способность не только самостоятельно решать задачи, но и самостоятельно их ставить, открывать новые проблемные области исследования.

2. В современных философских и научных исследованиях по искусственному интеллекту последний понимается как способность решать интеллектуальные задачи путем приобретения, запоминания и целенаправленного преобразования знаний в процессе обучения, а также при адаптации к разнообразным обстоятельствам. Понятие интеллектуальности как способности к решению определенных задач не отражает всей многомерности и сложности человеческой интеллектуальной деятельности. Важнейшая характеристика человеческого интеллекта - способность не только решать, но и ставить принципиально новые задачи - не поддается алгоритмической имитации.

3. Практические трудности создания интегрального искусственного интеллекта определяются принципиальными качественными отличиями человеческого интеллекта от алгоритмических систем. В пользу существования таких качественных отличий свидетельствует ряд аргументов философского и логико-математического характера («геделевский аргумент», «аргумент китайской комнаты» и др.), которые показывают, что человеческий интеллект обладает способностями (ассоциируемыми с понятием «творчество»), выходящими за рамки возможностей любых, сколь угодно сложных алгоритмических систем. Сказанное, однако, не исключает возможности алгоритмического воспроизведения отдельных, не носящих явно творческого характера интеллектуальных функций или интеллектуальной деятельности человека в конкретных предметных сферах (шахматы, решение логических задач заданного уровня сложности, управление конкретным производством).

4. Натуралистические подходы к пониманию природы сознания и решению психофизической проблемы, наиболее соответствующие идее о возможности алгоритмической имитации человеческого интеллекта (элиминирующие теории и функциональный подход), неудовлетворительны в концептуальном плане, поскольку либо вообще отрицают наличие сознания, либо не способны объяснить, как явления сознания (как феномены внутреннего мира) могут возникнуть в качестве «результата мозговой деятельности». Другие (ненатуралистические) подходы к решению психофизической проблемы: двухаспектный подход (психофизический параллелизм) и дуализм (интеракционизм) явно не совместимы с идеей возможности создания искусственного интеллекта.

5. Всякая аргументация, основанная на экспериментах в области возможности создания искусственного интеллекта, должна быть подвергнута строгому анализу на теоретико-философском уровне, вне которого любые утверждения о возможности создания искусственного интеллекта или о его успешном моделировании как свершившемся факте не могут быть признаны истинными.

Теоретическая и практическая значимость исследования определяются обозначенными актуальностью и новизной работы. В результате предпринятого диссертационного исследования философия науки пополнилась новыми положениями и выводами об искусственном интеллекте. Решение основных задач работы: определение понятий интеллекта и искусственного интеллекта, анализ основных проблем, связанных с попытками разработки метода создания искусственного интеллекта - позволило получить в ходе данного исследования результаты, которые в условиях современной техногенной цивилизации могут сформировать адекватное мировоззрение и оценить сущность исследуемых феноменов. Выводы исследования могут также расширить понимание проблем сознания и сформировать положительную установку на возможность создания и применение искусственного интеллекта.

Результаты данного исследования имеют и методологическое значение для теоретических и практических разработок, относящихся к теме искусственного интеллекта. Материалы могут быть использованы при подготовке курсов: «Философия техники», «Концепции современного естествознания», лекций по отдельным разделам и специальным темам систематического курса философии.

Апробация результатов исследования. Основное содержание диссертационного исследования отражено в двух статьях и брошюре.

Главные положения, результаты и выводы, содержащиеся в диссертации докладывались и обсуждались на итоговых научных конференциях в СГУ им. Н. Г. Чернышевского:

1. Межвузовская научная конференция «Философия науки: идеи, проблемы, перспективы развития» (Саратов, май 2002).

2. Конференция молодых ученых «Философия: жизненный мир человека» (Саратов, декабрь 2002).

3. Межвузовская научная конференция «Человек в глобальном мире» (Саратов, декабрь 2003). Структура работы. Диссертация состоит из введения, двух глав, четырех параграфов, заключения и библиографического списка литературы.

Заключение диссертации по теме "Философия науки и техники", Быковский, Игорь Александрович

ЗАКЛЮЧЕНИЕ

Анализируя основные аргументы, выдвигаемые против искусственного интеллекта, рассматривая данные о многоуровневом строении человеческого интеллекта, а также оценивая реальное положение дел в области компьютерной имитации человеческого мышления, мы пришли к выводу: полная машинная имитация человеческого интеллекта, по всей вероятности, принципиально не возможна. Здесь уместно процитировать Д.Ф. Араго, который говорил: «Тот, кто говорит «невозможно» вне чистой математики, тот не понимает своего предмета». Поэтому наше заключение и содержит оговорку «по всей видимости». История науки говорит нам о том, что любые, сколь угодно убедительные и обоснованные теоретические заключения могут быть опровергнуты новыми, неожиданными фактами. Поэтому нельзя априори исключить, что интегральный искусственный интеллект, равный по возможностям человеческому, все же когда-нибудь будет создан - вопреки всем теоретическим запретам. В этом случае нам придется существенным образом пересмотреть привычные для нас способы теоретической аргументации.

Учитывая сказанное, примем более осторожную формулировку нашего заключения: идея возможности создания машинного аналога человеческого интеллекта не представляется в настоящее время в достаточной степени теоретически и эмпирически обоснованной. Напротив, существует ряд весьма убедительных аргументов, которые указывают на существование принципиального различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами.

Следует ли отсюда, что исследования в области искусственного интеллекта нужно свернуть? Нет, конечно. Мы не можем искусственно воспроизвести человеческий интеллект в целом, но вполне можем воспроизвести отдельные его функции и имитировать его действие в ограниченных предметных сферах. Исследования в этих направлениях уже сейчас дают ощутимый экономический эффект, приносят реальную пользу человечеству. Все, чего человек реально достиг, все конкретные результаты его творчества в той мере, в какой мы их способны понять и объяснить - вполне могут быть представлены в виде алгоритмов и, таким образом, могут быть «пересажены» в «машинный ум» (об этом, в частности, убедительно говорят успехи шахматных программ). Но человек всегда способен пойти дальше, придумать что-то новое, небывалое, т.е. способен к подлинному творчеству, чего никак нельзя сказать о машине.

Создать машину, способную к творчеству, т.е. такую машину, которая бы действительно создавала что-то принципиально новое, а не копировала или компилировала бы уже открытые приемы и методы работы, видимо, принципиально не возможно. Сама идея творчества противоречит алгоритмическому подходу: творить - это и значит действовать не по правшам. «Правил творчества» нет и быть не может (хотя были попытки и творчество представить в виде алгоритма).

Польза от исследований в области искусственного интеллекта не ограничивается только лишь экономической выгодой. Если верно заключение о невозможности имитации функции человеческого интеллекта каким-то альтернативным по отношению к человеческому мозгу способом, то отсюда следует, что попытки создания искусственного интеллекта, если они окажутся успешными, помогут нам в конечном итоге понять нечто важное относительно природы нашего сознания и нашего ума. Ведь эти попытки, с этой точки зрения, могут быть успешными только в том случае, если нам удастся раскрыть (или угадать) механизм человеческого мышления и воспроизвести его каким-то искусственным путем. Но здесь необходимо учитывать тот факт, что полное понимание того или иного явления предполагает возможность его алгоритмического описания. Предполагаемая «неал-горитмизируемость» сознания исключает его полное и исчерпывающее описание и, соответственно, исключает полное и исчерпывающее понимание «сущности сознания», что, однако, само по себе не исключает возможности его искусственного воспроизведения.

Неалгоритмизируемость» сознания не означает, однако, что исследование человеческого сознания и мышления принципиально не возможно. Просто никакое описание, никакая теория сознания и мышления не сможет полностью исчерпать предмет исследования, и, таким образом, задача исследования сознания или интеллекта - это бесконечная задача, поскольку сам предмет - есть нечто бесконечное.

Именно об этом, по существу, и говорит нам «геделевский» аргумент. Моделирование человеческого мышления предполагает также и моделирование математического мышления. Но согласно теореме Геделя даже математическое мышление не может быть представлено с помощью какой-либо конечной совокупности алгоритмов. При этом никакое расширение исходного списка аксиом нам не поможет. Но последнее как раз и означает, что мышление человека-математика бесконечно превосходит мышление любой сколь угодно сложной машины-математика.

Используя математическую метафору можно сказать, что естественный и искусственный интеллект соотносятся примерно так же, как бесконечные счетные множества и множества мощности континуума. И те и другие множества - бесконечны. Но это бесконечности разных порядков, бесконечности не сводимые друг к другу.

Известная теорема Левенгейма-Сколема утверждает, что всякая математическая теория, ориентированная изначально на объекты, имеющие мощность континуума, истинна, также, и для некоторой счетной модели. В нашей аналогии это означает, что всякая конкретная интеллектуальная процедура естественного ума может быть переведена на язык алгоритмов. Но, тем не менее, «полный набор» интеллектуальных способностей человека никогда не может быть переведен в форму алгоритма, поскольку континуум все же не изоморфен счетному множеству.

Отрицательный результат теоретических и практических исследований в области искусственного интеллекта, а именно - констатация нашей неспособности создать полную алгоритмическую модель человеческого интеллекта - будет иметь, помимо всего прочего, и большое позитивное философское и этическое значение. Ведь фактически, мы впервые получим опытное доказательство того, что мы не машины! Для философии сознания это будет означать, что сознание следует мыслить как нечто незамкнутое, открытое в бесконечность. В этики - этот результат даст нам эмпирическое доказательство того, что мы подлинно свободны, обладаем свободой воли, и, следовательно, полностью ответственны за свои поступки.

Список литературы диссертационного исследования кандидат философских наук Быковский, Игорь Александрович, 2003 год

1. Алексеева И.Ю. Знание как объект компьютерного моделирования. // Вопросы философии, 1987, №3. С. 42-49.

2. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // Философия науки и техники, 1991, №9. С. 44-53.

3. Амосов A.M. Искусственный разум. Киев, 1969. С. 122.

4. Анисов A.M. ЭВМ и понимание математических доказательств // Вопросы философии, 1987, №3, С. 29-40.

5. Анохин П.К. Избранные труды: Философские аспекты теории функциональной системы. М., 1978. С.113.

6. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986. С. 167.

7. Аристотель. Метафизика. М., JI., 1934.С. 345.

8. Армер П. О возможностях кибернетических систем. // Таубе М. Вычислительные машины и здравый смысл. М., 1964. С. 275.

9. Берг А.И. Информация, управление, интеллект. М., 1976.С. 374.

10. Ю.Бергсон А. Материя и память.// Собрание сочинений.Т. 1., 1992. С.203.

11. Библер B.C. Мышление как творчество. М., 1975. С.275.

12. Бирюков Б.В. О возможностях искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С. 106.

13. Бруно Д. Диалоги. М., 1949. С.291.

14. М.Бруно Д. О героическом энтузиазме. М., 1953. С.93.

15. Будущее искусственного интеллекта. Ред.: Карл, Левитин, Поспелов, Хорошевский. М., Наука, 1991.

16. Быковский И.А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.

17. П.Валиев К. А. Квантовые компьютеры: можно ли их сделать большими? УФН, 169,(6), 691 694 (1999).

18. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 340.

19. Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 120.

20. Винер Н. Кибернетика и общество. М. ИЛ, 1958.С.270.

21. Виноград Т. Программа, понимающая естественный язык.М.,1976. С.230.

22. Витгенштейн Л. Философские работы. М., 1994. С. 174.

23. Гаврилов А.В., Канглер В.М. Использование искусственных нейронных сетей для анализа данных. // Сб. научн. трудов НГТУ. Новосибирск: Изд-во НГТУ, 1999. - № 3(16). С. 78- 105.

24. Геранзон Б. Практический интеллект// Вопросы философии, 1998, №6. С. 42-49.

25. Глушков В. М. Кибернетика и искусственный интеллект. Кибернетика и диалектика. М.,1978. С. 162-168.

26. Гоббс Т. Избр. Произведения: в 2 тт. М., 1965. Т.2. с. 380.

27. Гольбах П. Избранные произведения: В 2 т. М., 1963., т.1., С. 164.

28. Грановская P.M., Березкина И.Л. Интуиция и искусственный интеллект. Л., 1991. С. 242.

29. Гурова Л. Л. Психологический анализ решения задач. Воронеж, 1976, С. 112.

30. Гуссерль Э. Феноменология как строгая наука. Новочеркасск, 1994. С.429.

31. Дрейфус X. Чего не могут вычислительные машины: Критика искусственного разума. М., 1978. С.258.

32. Дубинский А.Г. К определению понятия "интеллект" // Искусственный интеллект. 2001. - №4. С. 72-79.

33. Дубровский Д. И. Информация, сознание, мозг. М., 1980. С.1 58.

34. Дубровский Д. И. Психические явления и мозг. М., 1971. С.275.

35. Дубровский Д.И. Психика и мозг результаты и перспективы исследований // Мозг и разум. М., 1994. С. 148.

36. Ефимов Е.И. Решатели интеллектуальных задач. М., 1982. С. 143. 37.3ахарченко В.М., Скроцкий Г.В. Как создать оптический «мозг»//

37. Кибернетика, дела практические. М.,1987 С. 124.

38. Иваницкий А. М. Сознание: Критерии и возможные механизмы. // Мозг и разум. М., 1994. С.113- 120.

39. Иванов Е. М. Материя и субъективность. Саратов. 1998. С.70.

40. Иванов Е.М. К вопросу о «вычислимости» функции сознания // Topos Noetos. 2000.(2). С. 45- 79.

41. Иванов Е.М. Материя и субъективность. Саратов, 1998. С.112.

42. Ильенков Э.В. Диалектическая логика. М., 1974. С. 136.

43. Кант И. Критика чистого разума. Избранные произведения. Соч. в 6 т., т. 3. М.1964. С.321.

44. Касымжанов А.Х., Кельбуганов А.Ж. О культуре мышления. М., 1981. С.46.

45. Клике Ф. Пробуждающееся мышление: У истоков человеческого интеллекта. М., 1982. С.285.

46. Кондаков Н.И. Логический словарь-справочник. М., 1975. С.203

47. Криницкий И.А. Алгоритмы вокруг нас. М., 1984. С. 136.

48. Кругликов Р.И. «П.В. Симонов. Созидающий мозг. Нейробиологические основы творчества // Вопросы философии, 1994, №3. С. 65- 79.

49. Кузин JI. Т. Основы кибернетики, т. 2., С. 415.

50. Кушнир Г. А. Системы искусственного интеллекта. Лекция., М. 2001.С.122.

51. Лекторский В.А. Субъект, объект, познание. М., 1980. С.230.

52. Литвинова А.Л. Роль интуиции в научном познании // Философия о предмете и субъекте научного познания / Под ред. Э.Ф. Караваева, Д.Н. Разеева. СПб., 2002. С. 140-143

53. Лосский И.О. Чувственная, интеллектуальная и мистическая интуиция. М., 1995. С. 476.

54. Марголис Дж. Личность и сознание. М., 1986. С. 274.

55. Милютин Ю.Е. Здравый смысл и концепция вкуса Т. Рида // Эстетика сегодня: состояние, перспективы. Материалы научной конференции. 2021 октября 1999 г. Тезисы докладов и выступлений. СПб., 1999. С. 4356.

56. Молчанов В.И. Время и сознание. Критика феноменологической философии. М., 1988. С. 138.

57. Найсер У. Познание и реальность. М., 1981. С. 178.

58. Николай Кузанский Сочинения в 2-х т. М., 1980. С. 479.

59. Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973.С. 236.

60. Новая философская энциклопедия. В 4 томах. Т. 2, М., 2001. С. 590.61 .Новая философская энциклопедия. В 4 томах. Т. 4, М., 2001. С. 590.

61. Патнем X. Философия сознания. М., 1999.С. 425.

62. Пахомова Е. П., Сусин П. В. Устройство распознования речевых сигналов. // тез. докл. юбил. конф. ученых Кур. Политехи. Ин-та, (Курск, 1994).-Курск, 1994. С. 78.

63. Пенроуз Р. Новый ум короля М., 2003. С.183.

64. Пенроуз Р. Новый ум короля. М., 2003.С456.

65. Петров С. Подходы и теории отражения в когнитивной психологии.// Философские науки. 1991. №2. С.61-73.

66. Платон. Диалоги. М., 1986. С. 326.

67. Платон. Соч.: в 3 т. М., 1968. Т. 1. С. 219.

68. Пойа Д. Как решать задачу. М., 1959. С. 186.

69. Пойа Д. Математическое открытие. М., 1970. С143. 71 .Поппер К. Логика и рост научного знания. М.: Прогресс, 1983. С. 107.

70. Поспелов Д.А. Профессионально и проблемно ориентированные интеллектуальные системы// Кибернетика, перспективы развития. М., 1981. С.84.

71. Поспелов Д.А. Семиотические модели в управлении// Кибернетика, перспективы развития. М., 1981. С.72.

72. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту. М., Наука, 1982. С. 184.

73. Прист. С. Теории сознания. М.: Идея- Пресс. 2000. С 287.

74. Райл Г. Понятие сознания. М.,2000. С. 179.

75. Растригин Л.А. Вычислительные машины, системы, сети. М., 1982. С.223.

76. Роджерс X. Теория рекурсивных функций эффективная вычислимость. М., 1972. С. 142.

77. Рорти Р. Философия и зеркало природы. Новосибирск. 1997. С.187.

78. Сахаров Д. Неизбежность нейробиологии // Знание сила. 1984. №10. С.28.

79. Серл Дж. Разум мозга компьютерная программа?// В мире науки. 1990. №3. С.7-13.

80. Словарь современного русского языка. М., 1956. С. 736.

81. Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989. С. 147.

82. Сотник С.Л. Конспект лекций по курсу «Основы проектирования систем искусственного интеллекта» М, 2001. С. 134.

83. Сперри Р.У. Перспективы менталистской революции и возникновение нового научного мировоззрения //Мозг и разум. М., 1994. С.20-44.

84. Спиноза Б. Избранные произведения: В 2 т. М., 1957. Т.1, с. 356.

85. Тит Лукреций Кар. О природе вещей. М., 1983. С. 138.

86. Толковый словарь/ Под ред. С.И. Ожегова. М., 1972. С.232.

87. Тьюринг А. Может ли машина мыслить? М., 1960. С. 157.

88. Тюхтин B.C. Соотношение возможностей естественного и искусственного интеллектов//Указ. Соч.М., 1973. С. 193.

89. Уинстон П. Искусственный интеллект. М., 1980. С.130.

90. Урсул А.Д. Филдософия и общенаучный характер проблемы искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С.114.

91. Фогель JL, Оуэне А., Уолш М. Искусственный интеллект и эволюционное моделирование. М., 1969. С.280.

92. Фрагменты ранних греческих философов. 4.1. От эпических космогоний до возникновения атомистики. М., 1989. С.191.

93. Франк C.J1 .Предмет знания // Франк СЛ. Предмет знания. Душа человека. СПб., 1995. С. 572.

94. Хилл Т.Н. Современные теории познания. М., 1965. С. 179.

95. Шалютин С.М. Искусственный интеллект: Гносеологический аспект. М., 1985. С. 479.

96. Штумпф К. Душа и тело // Новые идеи в философии. №8.1913. С. 285.

97. Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972. С. 289.

98. Юм Д. Сочинения: В 2 т. М., 1965. Т.1. С. 746.

99. Ярвилехто Т. Мозг и психика. М., 1992. С.256.

100. Anderson A.R. Mind and Machines. N.Y. 1964. P. 132.

101. Armstrong D.M. Materialist Theory of Mind. L., 1969. P.235.

102. Artificial intelligence as science and artificial intelligence as engineering/ Narasimhan R. // Curr. Sci. 1993. - 64, №6. - P. 361-365.

103. Baars B. In the theatre of consciousness: the workspace of the mind, NY, 1997. P.321.

104. Baars В. In the theatre of consciousness: the workspace of the mind, NY, 1997. P. 345.

105. Baars B. J. Can Physics Provide Theory of consciosness. // PSYCHE, 1995., 2(8). P. 36-57.

106. Block N. On a confusion about a function of consciousness, 1994, MS; P.223.

107. Bock J.K. Towards a cognitive psychology of syntax: Information processing contributions to sentance formulation // Psychological Review, 1982, 89, P.l-47.

108. Bostrom N. How long before superintelligence? // Int. Jour, of Future Studies, 1998, vol. 2. P. 134.

109. Chalmers D.J. Facing Up to the Problem of Consciousness // Journal of Consciousness Studies, 2 (3), 1995, P.200 219;

110. Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).

111. Dennett D. Consciousness Explanded. Boston, 1991. P. 14-37.

112. Feigle H. The "Mental" and the "Physical". Minneapolis, 1976. P.l 68.

113. Fodor J.A. The Mind-Body Problem // Sci. Amer., 1981 .№1.

114. Gray J. A. The content of consciousness: a neuropsychological conjecture // Behavioral and Brain Sciences, 1995, 18(4), P.659-722;

115. Hameroff S, Penrose R. Orchestrated Reduction of Quantum Coherence in Brain Microtubules: A Model of Consciousness //Toward a Science of Consciousness. The First Tucson Discussions and Debates. Tucson. 1996. P.l14.

116. Holender D. Semantic activation without conscious identification in dichotic listening, parafoveal vision, and visual masking // Behavioral and Brain Sciences, 1986, 9, P. 1-66.

117. Insert- model based microrobot with elastic hinges/ Suzuki Kenji, Shimoyma Isao // J. Microelectromech. Syst.-1994.- 3, №1 .-P. 4- 9.

118. Kahneman D., Treisman A. Changing views of attention and automaticity // Varieties of Attention, 1984, Academic Press. P. 123.

119. Kosugi Makoto// Denshi joho tsushin gakkai ronbunshi. D2. Trans. Inf. And Commun. Eng. D2. 1993.- 76, №6.-P. 1132-1139.

120. La Berge D. Automatic information processing: A review // Attention and Perfomance, 1981,9, P.173-186.

121. Lewis J.L. Semantic processing of unattended messages using dichotic listening // Jornal of Experimental Psychology, 1970, 85, P.220-227.

122. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, P. 112127.

123. Maudlin T. Between the Motion and the Act // PSYCHE, 1995, 2(2)

124. McCullough D. Can Humans Escape Godel? // PSYCHE, 1995, 2(4); McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).

125. Mitsubishi Electronic develops high precision image processing system for face recognition// JIPDEC INF. Quart. 1994. - №96. - P.37- 38.

126. Nerual network learning control of robot manipulators using gradually increasing task difficulty/ Sanger Terence D. // IEFF Trans. Rob. And. Autom.- 1994. -10. №3.- P.323- 333.

127. Oakley A.D., Eames L.S. The plurality of consciousness // Brain and mind, 1985, Methuen,P.217-251.

128. Penrose R. Beyond the Doubting of Shadow // PSYCHE, 1996, 2 (23). P.41-63.

129. Penrose R. Shadows of the Mind. L., 1993. P.321.132. Psyche, 1996,2(23).

130. Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9).

131. Schacter D.L. Implicit memory: History and current status // J. of Experimental Psychology: Learning,Memory and Cognition, 1987,13, P. 501-518.

132. Shanon В. The function of consciousness // Toward a science of consciousness. The first Tucson discussion and debates, Tucson,!996. P.376.

133. Shor P.W. Algorithms for Quantum Computation: Discrete Log and Factoring // Proceedings of the 35th annual Symposium on the Foundations of Computer Science. IEEE. Computer Society Press. 1994. P. 124.

134. Simon H.A., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958. P.423.

136. Some methodological aspects of machine learning/ Boticario J. G., Mira J. // Cybern. And Syst. 1994. -25, №2. - P.233- 258.

137. Stapp H.P. Why Classical Mechanics Cannot Naturally Accommodate Consciousness bat Quantum Mechanics Can // Psyche. 2 (21). 1996. P.234-264.1A1. The current approaches in pattern recognition/ Kerka Jiri I I Kybernetika. -1994.-30. №2.-P. 159-15.

138. Treisman A.M., Squire R.,& Green J. Semantic processing in dichotic listening? A replication // Memory and Cognition, 1974,2, P.641-646.

139. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

140. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.

Обратите внимание, представленные выше научные тексты размещены для ознакомления и получены посредством распознавания оригинальных текстов диссертаций (OCR). В связи с чем, в них могут содержаться ошибки, связанные с несовершенством алгоритмов распознавания. В PDF файлах диссертаций и авторефератов, которые мы доставляем, подобных ошибок нет.

 

 

Это интересно: