Искусственный интеллект и проблема моделирования его самосознания. Проблема сознания и мозга, искусственный интеллект

Анализ статьи Серла «Сознание, мозг и программы» Статья представляет собой попытку автора опровергнуть два тезиса, которые выдвигаются сторонниками «сильной версии» искусственного интеллекта, а именно: 1. Тезис о том, что компьютер обладает некоторыми «когнитивными состояниями» (среди которых, главным образом, рассматривается понимание) 2. Тезис о том, что компьютер способен объяснять человеческое познание. Серл рассматривает эксперимент, описанный в работе Шэнка, в ходе которого компьютерная программа как будто бы ведет себя также, как человек, понимающий определенную ситуацию. Серл задается вопросом, действительно ли машина проявляет способность, аналогичную человеческой способности понимания и формулирует отрицательный ответ на этот вопрос. Таким образом, тезис, защищаемый автором, заключается в том, что никакого понимания у компьютера нет и это просто невозможно. Для подтверждения своей позиции автор описывает мысленный эксперимент, в ходе которого на этот раз человек, не обладающий никаким пониманием китайского ведет себя аналогично действиям компьютерной программы. Намерение автора заключается в том, чтобы показать, что выполнение определенных указаний человеком, у которого отсутствует подлинное понимание того, что он делает (в силу незнания языка «программы») возможно, более того, это выполнение можно довести до почти идеального, автоматического уровня, однако, это не свидетельствует в пользу того факта, что в ходе улучшения процесса выполнения команд человек начинает понимать их язык или хотя бы приближается к этому. Этот контр-пример, по мысли Серла, должен показать, что и компьютер может работать в этой ситуации, что вывод о том, что компьютер обладает подлинным пониманием ситуации из того факта, что он хорошо справляется с формулируемой задачей, является попросту необоснованным. На описание своего мысленного эксперимента Серл получил несколько ответов от людей, занимающихся изучением искусственного интеллекта, при этом они сильно отличались между собой. Далее в статье автор рассматривает ряд этих ответов и предпринимает попытку их анализа. Рассмотрим некоторые из приведенных ответов и попытки Серла их проанализировать 1. 1. Первый ответ Серлу («Ответ от систем») заключается в том, что индивид, описанный Серлом может и не обладать пониманием, тогда как пониманием обладает 1 Мы рассмотрим не все полученные Серлом ответы, а только те из них, которые являются либо наиболее общими, либо наиболее дискуссионными. Соответственно, мы оставим за рамками рассмотрения те их них, ответы на которые уже так или иначе включаются в ответы на другие, более общие возражения. вся система, в которую он вписан. Серл, в свою очередь, отвечает на это возражение тем, что работающего с китайскими символами человека можно было бы рассматривать и как систему, если, допустим, он выучит наизусть все символы, которые он раньше получал от других людей, а также выучит наизусть все правила, с помощью которых он оперирует этими символами. К тому же, если довести его способность производить вычислительные операции над символами почти до автоматической, то, по мысли Серла, в системе не останется больше ничего, что не охватывалось бы способностями человека. Тем не менее, некоторые сторонники ИИ утверждают, что человек с этими «улучшенными» способностями заключает в себе две подсистемы: манипулирующую английским языком на мета-уровне и формально манипулирующую китайским как объектным. Для Серла же между этими двумя подсистемами - принципиальный разрыв: английский этот человек понимает, но китайский, по его мнению, ни в какой форме нет. То, что делает этот человек с китайскими символами, по его мнению - лишь манипуляции над символами, значения которых человек может вовсе и не знать, несмотря на то, что он знает правила манипулирования алфавитом, то есть знаком со способом получения новых слов. Серл сводит подсистему, манипулирующую китайскими символами к английской подсистеме, заявляя, что понимание принципиально возможно только относительно последней. Серл считает, что с формальной точки зрения человек может рассматривать символы китайского языка как не нагруженные никакой информацией. В противном случае, большинство некогнитивных (не способных к когнитивным процессам) систем должны быть признаны когнитивными. На мой взгляд, в своих утверждениях Серл прав. Действительно, человек, выучивший все символы и правила китайского обладает бОльшим объемом знаний. Более того, ему больше не нужно получать данные от внешних агентов. В этом смысле он работает как замкнутая (самодостаточная) система, к тому же, действительно, его непонимание китайского так и остается непониманием, подразумевающим только формальное оперирование символами по правилам. Но можно, однако, возразить, что приведенный Серлом ответ не является в полном смысле ответом на возражение теории систем. Дело в том, что это возражение строится на разделении «внутренней работы» человека и внешней по отношению к нему системы - людей, которые дают ему эти данные и которые обладают пониманием китайского. В этом смысле принципиальный момент возражения относится к тому факту, что человек может работать чисто формально, то есть совершать чисто синтаксические переходы, тогда как семантика системы всегда будет внешней по отношению к его работе. Тогда получается, что даже если человек научился большему количеству процессов (более богатый алфавит + операции), его «система» стала богаче, но в то же время богаче должна стать и «семантика» его системы. Попросту говоря, он не выучивает произвольный алфавит и не запоминает произвольные правила оперирования с символами, - он выучивает именно то, что представляют ему носители китайского языка (или те, кто понимают китайский). А этот факт говорит о том, что даже более «богатая система» работающего должна быть вписана во всегда более богатую систему «семантики». 2 . «Ответ от моделирования работы мозга» заключается в утверждении о том, что можно написать программу, которая будет искусственно моделировать последовательность возбуждения нейронов в мозге человека, понимающего китайский язык. Машина, работающая на основании такой программы (или набора параллельно работающих программ) будет получать на входе вопросы, задаваемые на китайском языке, в процессе переработки модулирует действительную работу мозга, а на выходе выдает ответ, который мог бы дать носитель китайского. Такая машина, по мысли авторов этого ответа, в действительности моделирует работу мозга носителя китайского языка, соответственно, необходимо признать, что она, также, как и носитель китайского языка, обладает пониманием языка. На это возражение Серл отвечает следующим образом: даже так сложно устроенная машина не может обладать аналогичным пониманием. По его мнению, этот тезис можно доказать на контр-примере: сконструировать сложных механизм, соединяющий между собой множество шлангов клапанами. При получении человеком (который все еще не знает китайского) сигнала на китайском, он сверяется с программой и открывает/закрывает определенные клапаны. При этом, по мысли Серла, каждое соединение представляет собой именно синапсу, протекающему в человеческом мозге, поэтому ряд открытий и закрытий клапанов приводит к результату - выдаче на выходе ответа на китайском. При этом ясно, что человек, регулирующий шланги, все еще не обладает знанием китайского, так же, как и, очевидно, ни шланги, ни клапаны им не обладают. И моделирование формальной последовательности нейронных связей не обеспечивает понимания, так как не моделирует каузальной способности мозга. Иными словами, для понимания не достаточно воспроизвести эту последовательность возбуждений, способность продуцировать интенциональные состояния остается незатронутой. На мой взгляд, сравнение Серла модели работы мозга с системой шлангов и клапанов не является в полной мере аргументом при ответе на это возражение. В ответе было сформулировано, что программа моделирует последовательность возбуждения нейронов, что, на мой взгляд, является более сложным механизмом, чем тот, который описал Серл. Однако, судить о том, как именно происходит это моделирование из приведенного ответа нельзя, здесь необходимо было бы углубиться в подробности работы конкретной программы, чего авторы ответа делать не хотели. Иными словами, судить о корректности этого возражения на основании недостаточных данных невозможно, остается вероятность, что, допустим, изучив работу конкретной программы мы могли бы как согласиться с этим возражением, так и опровергнуть его. 3. «Комбинированный ответ» представляет собой попытку составления трех предыдущих ответов2 в о д и н. Иными словами, авторы предлагают создание гипотетического робота, который работает на основе программы, аналогичной человеческому мозгу, и поведение которого неотличимо от поведения человека. И вот такой системе, по мнению авторов ответа, мы вынуждены приписать интенциональность. Серл отвечает, что действительно, мы вынуждены были бы признать, что такая система обладает интенциональностью, поскольку мы могли бы судить о ее работе только по внешним признакам. Однако, далее он продолжает, что это возражение не относится к претензиями сильного ИИ, утверждая лишь, что возможно смоделировать робота, внешнее поведение которого будет неотличимо от поведения человека. И на основании этого поведения мы могли бы сделать допущение об интенциональности, но только пока не доказано обратное. Однако, по мысли Серла, более глубокие знания о работе такого робота не позволили бы нас сделать такого вывода: если бы мы знали, что он работает на основе формальной программы, мы бы опять признали, что из этого мы не можем вывести тезиса о том, что он обладает ментальными состояниями (и здесь Серл воспроизводит свой ответ на предыдущее возражение). Мы могли бы предположить, что работу этого робота координирует человек, который также интерпретирует формальные символы, как и раньше. И этот факт доказывает, что гипотеза о наличии понимания является необоснованной: человек, координирующий поведение робота все так же не понимает бессмысленные для него символы китайского, хотя с помощью английских правил ему отлично удается воспроизводить такое поведение робота, которое внешне неотличимо от поведения человека. На мой взгляд, Серл действительно прав в своем возражении. В силу того, что поведение робота схоже с человеческим, мы не могли бы сделать вывода о внутренней 2 Из которых мы не перечислили «ответ от робота», возражение на который охватывается тем возражением, которое Серл приводит в ответ на первый контр-аргумент. работе его программы. А если бы мы действительно узнали, что программа работает также формально, то предыдущий аргумент Серла является и здесь корректным. Другое дело, что Серл снова отвечает на возражение не совсем контр-аргументом, а примером, который просто подтверждает его тезис. 4 . «Ответ от нескольких обиталищ» предполагает, что в будущем возможно создание более мощных компьютеров, которые будут способны воспроизводить каузальные процессы в мозге, которые влияют на наличие интенциональности, то есть утверждает, что даже если на данный момент ИИ не создан, а находится на стадии разработок, тем не менее, ничего не мешает его созданию на основе более мощной технологической базы. Серл отвечает, что этот аргумент также не соотносится с тем, что он назвал претензией сильного ИИ, а именно с утверждением о том, что ментальные процессы человека могут быть сведены и воспроизведены в виде вычислительного процесса, производимого компьютером, который работает на основе формальной программы. Автор стремится подчеркнуть именно разрыв между уровнем формального вычисления и уровнем каузальных процессов человеческого мозга. И именно каузальных процессов и не хватает машине для того, чтобы суметь воспроизвести интенциональность. Я считаю, что и этот ответ Серла обоснован. Действительно, в начале своей статьи он постулирует два тезиса, которые будет пытаться опровергнуть. В этом смысле, он и правда не ставит себе цель отрицать возможность разработки ИИ в будущем, он лишь стремится показать, что работа с формальной программой не дает возможности компьютеру воспроизводить ментальные состояния человеческого мозга и что, соответственно, интенциональности такой работе мы приписать не можем. В заключение я хочу привести некоторые общие размышления об аргументах Серла. На мой взгляд, тот факт, что, действительно, как показал Серл, не все ответы соотносятся с поставленной им проблемой и порой отвечают на другие, не связан с тем, что теории, от которых разворачиваются эти ответы, неспособны опровергнуть утверждения Серла. Дело в том, что сама проблема изначально сформулирована двояко: по сути дела, Серл возражает не «претензиям ИИ», а тезису о том, что человеческое понимание способно строится как связь формальных процедур. В этом смысле и пример китайской комнаты направлен именно на этот факт, он никак не соотносится с разработками ИИ, а связан только с разграничением синтаксического и семантического уровня работы человеческого познания. Поэтому ясно, что когда автор формулирует свой тезис как возражение «претензиям ИИ» он и получает ответы в духе последнего - о том, что эти разработки еще, действительно, не завершены, но ничто не мешает им реализоваться в будущем. Мысль Серла, которую он формулирует после ответов на возражения заключается в том, что если бы мы свели уровень ментальных процессов человеческого мозга к уровню формальных процессов, то мы потеряли бы суть сознания, которая заключается не в самих формальных процессах, а в их свойствах. Иными словами, за рамками рассмотрения тогда остается неформальность мыслительной деятельности человека, а также когнитивные состояния, среди которых оказываются понимание и пр. А это утверждение относится только к области теории познания, а не к разработкам и будущему ИИ. Говоря же, что Серл отрицает претензии ИИ только лишь потому, что ИИ мог бы явиться тем механизмом, который воспроизводит это разграничение в познавательной деятельности (синтаксический и семантический уровень) и, как следствие, не способен его преодолеть, является, на мой взгляд, скрытой подменой проблемы, поскольку речь начинает переходить в область следствий (определенной ограниченности ИИ), тогда как проблема изначально относится к другой области исследований.

Исследования в области "искусственного интеллекта" (ИИ ) к настоящему времени привели к ряду впечатляющих результатов. Именно поэтому остро стоящий в 60-е годы XX века вопрос "может ли машина мыслить?" в настоящее время не вызывает такого интереса, поскольку на ЭВМ удалось смоделировать некоторые интеллектуальные процедуры. Более того, некоторые программные продукты по результатам своей деятельности оказываются эффективнее, чем деятельность человеческого мозга. Однако успехи, достигнутые в области ИИ, не снимают с повестки дня другой вопрос, который в несколько грубой форме может быть сформулирован так: насколько адекватно с помощью "искусственного интеллекта" удается смоделировать существенные особенности работы естественного интеллекта, работу человеческого сознания? Для того чтобы снять некоторую некорректность поставленного вопроса, необходимо учесть то, что любой продукт ИИ суть не что иное, как реализация некоторой модели интеллектуальных процессов. Тогда более точная формулировка проблемы будет заключаться в вопросе о границах применимости господствующей в настоящее время в ИИ парадигмы моделирования сознания, поскольку построение модели такого сложного феномена как сознание и, тем более, ее машинная реализация связаны с неизбежными упрощениями и схематизмом <1>. Именно этой проблематике и посвящен данный доклад.

Начну с описания интересного психологического эксперимента, идея которого была предложена советским логиком С.Ю. Масловым .

Начало эксперимента: желательно, чтобы читатель провел его на себе

Пусть нам дано следующее исчисление:

алфавит исчисления - {a, b }

правильно построенной формулой (п.п.ф.) будем считать любое, возможно пустое, слово. Например, aabba, baba, bbbbb суть п.п.ф. исчисления.

аксиомой исчисления является слово abb;

правила вывода : 1. bXbY ?XYbb ; где X, Y, Z - п.п.ф. исчисления

2. XabYbZ ?XbYabaZ

Выводом будем называть последовательность п.п.ф., начинающуюся с аксиомы исчисления, каждая формула которой получена по правилам вывода из предшествующих формул последовательности.

Например, если нам дана формула babab , то мы можем, применяя первое правило вывода, получить либо формулу ababb , при отождествлении X с aba , а Y - с пустым словом (формула babab представляется как baba b__), либо формулу aabbb при отождествлении X с a , а Y - с ab (формула babab в данном случае представляется как ba bab ). В данном случае к формуле babab применимо и второе правило вывода, которое позволяет получить формулу bbaaba , при отождествлении X с первым b, Y- со вторым a, Z - с пустым словом (т.е. если формулу представлять как b aba b).

Собственно эксперимент заключается в построении вывода в условиях жесткого временного цейтнота (2-3 минуты). Вопрос таков: выводима ли в исчислении формула aa ... abb (a <14> bb )?

Конец эксперимента: Попробуйте самостоятельно ответить на поставленный вопрос за 3 - 4 минуты.

Анализ эксперимента. Важным итогом эксперимента является постулирование ошибочного утверждения о выводимости данной формулы. При проведении эксперимента в различных аудиториях в зависимости от ужесточения временного цейтнота процент неправильных ответов колебался, причем, что интересно отметить, математическая подготовка аудитории при ужесточении временного цейтнота часто оказывала весьма плохую услугу, повышая удельный вес неправильных ответов. Анализируя условия эксперимента, можно видеть, что появление неправильных ответов связано с тем, что начальные шаги построения вывода: abb - baba - a <2>bb - ababa - baabaa - a <4>bb - .... подталкивают к формулированию естественной и кажущейся верной догадке, что выводимыми в данном исчислении являются формулы вида a <2n>bb , ошибочность которой становится очевидной при дальнейшем построении вывода <2>.

Временные ограничения как раз и необходимы для того, чтобы испытуемый успел проделать всего лишь несколько первых шагов построения, экстраполяция которых и приводит к порождению ошибочной гипотезы, вероятность формулирования которой усиливается при наличии у испытуемых математической интуиции. Условия эксперимента - форма вопроса, которая предполагает либо положительный, либо отрицательный ответ - исключает возможность ответа типа "не знаю" (этот ответ появляется при ужесточении временных ограничений менее 1 - 2 минуты, когда испытуемые не успевают сделать и первых двух-трех шагов вывода). Если же представить, что в роли испытуемого оказывается какая-либо стандартная компьютерная программа (при сохранении соответствующего временного цейтнота с учетом быстродействия машины), то, в отличие от естественного интеллекта человека, ошибочного ответа в принципе не будет. Машина либо даст правильный ответ, либо не ответит вовсе (варианты ответа: "неизвестно"; "не знаю") при недостатке временных ресурсов.

Тем самым, можно зафиксировать важное различие в поведении искусственного и естественного интеллектов, заключающееся в том, что человек, во-первых, стремится дать некоторый определенный ответ ("да" или "нет"), причем этот ответ в принципе может быть ошибочным. Таким образом, важное феноменологическое свойство естественного интеллекта заключается в его возможности ошибаться и, если усилить этот тезис, даже в его праве на ошибку. Господствующая тенденция в современной парадигме ИИ исключает такую возможность <3>. Зафиксируем это различие в противопоставлении:

возможность ошибки сознания versus безошибочность ИИ

Это связано с тем, что работа современных ЭВМ организована как работа алгоритмического вычислителя. Это, в свою очередь, означает, что программа представляет собой ряд локальных операций, каждая из которых осуществляется последовательно, друг за другом <4>. Безошибочность работы компьютера гарантируется как корректностью каждого отдельного перехода (операции), так и хорошей совместимостью операций друг с другом (правильность программы в целом). Благодаря такой организации работа компьютера в принципе безошибочна, причем, принципиальная корректность связана, прежде всего, с локальным характером работы программы. Если обратиться к приведенному выше примеру, то работа компьютера заключается в последовательном построении вывода: abb - baba - aabb - ..., и если за отведенное время удается построить соответствующий кусок вывода, то будет дан правильный (при отсутствии технических сбоев) ответ. Принципиальная корректность работы компьютера означает невозможность порождения ошибочных гипотез, а указание на локальный характер работы ЭВМ - отсутствие как такового механизма выдвижения гипотез, поскольку для выдвижения гипотез необходима другая, отличная от алгоритмического вычислителя, программа, способная "помнить" результаты своих прошлых вычислений и анализировать их. По существу, речь в данном случае идет уже о программе следующего иерархического уровня (метапрограмме), которая работает не непосредственно с "входными данными" (в приведенном примере это работа по построению вывода), а с результатами работы программы первого уровня - с результатами работы алгоритмического вычислителя. На связь "интеллектуальности" системы и степени ее иерархичности указано в работах В.М. Сергеева <5>. Здесь же заметим, что отмеченная выше локальность работы алгоритмического вычислителя существенным образом связана с отсутствием у него долгосрочной "памяти", поскольку для выполнения следующего шага достаточно "помнить" лишь результат предшествующего вычисления. Наш анализ работы систем ИИ (помимо выявления принципов безошибочности и локальности) позволяет эксплицировать и еще одну существенную особенность их работы. Речь идет о процедурном характере работы этих систем. Известное в ИИ противопоставление процедурный versus декларативный подходам к созданию программ решается в пользу процедурности [см., например, 6]. Собственно говоря, указание на алгоритмический характер программы и есть не что иное, как указание на существенно процедурный характер ее работы.

Как видно из приведенного выше примера, "механизмы" работы естественного интеллекта (сознания) существенно другие. В данном случае, это проявляется в том, что вместо решения конкретной задачи и ответа на поставленный вопрос о выводимости конкретной формулы (a <14>bb ) человек фактически пытается ответить на более глобальный вопрос об общей структуре выводимых формул. В работах С.Ю. Маслова это наблюдение о работе человеческого сознания (на основе обработки достаточно большого материала по решению логико-математических задач) представлено в общем виде как способность сознания к "глобальной обработке информации" <5>. Именно это стремление к постановке более общей проблемы (в нашем случае, вместо вопроса о выводимости конкретной формулы ставится вопрос о структуре выводимых формул) и попытка последующего ее решения привели к появлению принципиально нового способа решения задач, который может быть назван механизмом "порождения гипотез (эвристик)". В отличие от безошибочного локального поиска, который, по существу, является методом "полного перебора" (в нашем случае - полный перебор выступает как последовательное порождение всех выводимых слов), использование гипотез (эвристик) позволяет существенно сократить время поиска <6>. Возможно, гипотеза оказалась ошибочной, или, говоря другими словами, применение эвристики "пропустило" некоторое решение и, тем самым, привело к неверному (отрицательному) ответу на поставленный вопрос. Однако, несмотря на возможность ошибки, такое поведение имеет ряд прагматических преимуществ, главное из которых (подчеркнем это еще раз) - возможность быстрого принятия какого-то решения и ответного действия в условиях нехватки времени, что, видимо, способствовало биологическому выживанию особей (человека), обладающих таким - сознательным - механизмом принятия решений. Понятно, что этот фактор жесткой конкурентной борьбы за выживание практически не оказывает влияние на развитие машинного интеллекта, которое происходит в тепличных условиях.

Подводя итог первого этапа сопоставления естественного и искусственного интеллектов, зафиксируем различие их работы в следующем противопоставлении:

глобальность работы сознания versus локальность работы ИИ

Указание на способность сознания к "глобальной обработке информации" (за счет использования механизма "порождения гипотез") - важный результат, полученный на стыке логики и психологии. Однако выражения <способность к "глобальной обработке информации">, <механизм "порождения гипотез"> (как и метафора "правого - левого полушария") скорее являются яркими метафорами, которые должны получить более конструктивную проработку. Для этого необходимо ответить на более фундаментальный вопрос о том, какие "механизмы" сознания лежат в основе способности сознания к "глобальной обработке информации", каковы трансцендентальные условия этой способности.

В качестве предварительного подхода к решению этого вопроса воспользуюсь интересным примером У. Матураны , который хорошо проясняет специфику сознательной обработки информации: "Предположим, что нам надо построить два дома. С этой целью мы нанимаем две группы рабочих по тринадцать человек в каждой. Одного из рабочих первой группы мы назначаем руководителем и даем ему книгу, в которой содержатся все планы дома со стандартными схемами расположения стен, водопроводных труб, электрических проводов, окон и т.д., а, кроме того, несколько изображений дома в перспективе. Рабочие изучают эти планы и по указаниям руководителя строят дом, непрерывно приближаясь к конечному состоянию, которое определено описанием. Во второй группе руководителя мы не назначаем, а расставляем рабочих, определяя для каждого исходное положение на рабочем участке, и даем каждому из них одинаковую книгу, в которой содержатся указания относительно ближайшего пространства вокруг него. В этих указаниях нет таких слов, как дом, трубы, окна, в них нет также ни планов, ни чертежей дома, который предстоит построить. Эти указания, [процедурная инструкция - К. С.] касающееся только того, что рабочий должен делать, находясь в различных положениях и в различных отношениях, в которых он оказывается по мере того, как его положение и отношения изменяются. Хотя все книги одинаковы, рабочие вычитывают из них и применяют различные указания потому, что они начинают свою работу, находясь в разных положениях, и движутся после этого по разным траекториям изменения. Конечный результат в обоих случаях будет один и тот же, а именно - [построенный] дом... Кодирование [способ кодирования, способ обработки информации - К. С.] в этих двух случаях, очевидно, разное... В первом случае кодирование изоморфно описанию дома, выполненному наблюдателем, и образует собой фактически репрезентацию последнего. Во втором случае это не так. Первый случай типичен для способа, посредством которого наблюдатель кодирует создаваемые им системы. Второй присущ способу, посредством которого геном и нервная система образуют собой коды для организма и нервной системы соответственно. При этом никто и никогда не сумеет отыскать в этих кодах изоморфизма с описанием системы, которое могло бы быть сделано самим наблюдателем системы, с которой наблюдатель взаимодействует" .

Очевидно, что именно первый способ деятельности и представляет деятельность естественного интеллекта (сознания) человека, тогда как второй характерен не только для механизма наследственности и механизма нервной системы, например, в случае рефлекторного поведения, но и для работы современных систем ИИ. Основное различение между двумя способами организации процесса в этом примере можно выразить следующим противопоставлением:

декларативность естественного интеллекта versus процедурность ИИ

С одной стороны, это различение дополняет и уточняет ранее сделанное различение глобальность versus локальность, поскольку глобальная обработка информации невозможна без декларативности. То есть, одним из условий (трансцендентальным условием) способности сознания к "глобальной обработке информации" является декларативность: без описания (схем, планов, рисунков) никакие механизмы глобальной обработки информации невозможны. Поэтому, если всерьез говорить о моделировании сознания в рамках исследований ИИ, то необходимо каким-то образом сочетать процедурный и декларативный подходы. Без декларативного подхода никакое полноценное моделирование сознания невозможно!

Причем более внимательный анализ приведенного отрывка о двух способах строительства дома позволяет говорить, что чисто процедурный подход, соотносимый У. Матураной с работой генома и нервной системой, невозможен и даже на этом уровне необходим декларативный подход (использование описаний). Основу любой процедуры составляют какие-то неразложимые на данном уровне деятельности (анализа) элементы, на которых и базируется данная процедура (в частности, любой процедура предполагает некоторый процедурный "язык", состоящий из алфавита и слов). Эти процедурные элементы - "целостности" являются не чем иным, как описанием, хотя и описанием другого, более низкого уровня. В примере со строительством домом процедурный подход к строительству дома должен опираться, например, на понятия "кирпич", "цементный раствор", "мастерок", хотя и не предполагает использование понятий более "высокого" уровня как "дом", "стена", "крыша". Поэтому, возвращаясь к приведенному выше тезису о необходимости сочетания процедурного и декларативного подхода, уточним его следующим образом:

Специфика человеческого сознания проявляется не просто в использовании декларативного подхода (описаний одного уровня), а в способности использовать в своей деятельности, по крайней мере, двухуровневую (двухмасштабную) систему описаний.

Как можно заметить, этот тезис, с одной стороны, перекликается с приводившимся выше тезисом - критерием интеллектуальности - В. Сергеева о необходимости создания систем ИИ, способных к порождению некоторой иерархии знаний. С другой стороны, данный тезис близок к намеченному в работах С. Маслова критерию интеллектуальности как способности к порождению "башни дедуктивных исчислений", в рамках которого "переход" к следующему уровню обеспечивается "правополушарными" механизмами, в то время как "левое" полушарие отвечает за "локальную" (процедурную) работу на своем уровне описания.

Однако наш анализ был бы неполон, если бы мы не указали не еще одну важную особенность естественного интеллекта. В каком-то смысле, она играет роль еще более глубинного трансцендентального условия по отношению к уже выявленной в ходе нашего анализа способности сознания к использованию двухуровневой системы описаний. Наличие описания является необходимым, но недостаточным условием работы сознания, поскольку помимо самих описаний необходимо постулировать особый тип наблюдателя, а именно наблюдателя, способного воспринимать - или даже конструировать - такие целостности. Т.е. сознание (человек) является таким наблюдателем, который способен к "схватыванию идеи" (Платон), к "синтетической деятельности" (Кант), к порождению и работе с "превращенными формами" (Маркс). М. Мамардашвили , анализируя феномен восприятия дома, замечает, что на уровне физиологического восприятия "дом" как целостный феномен (а именно на такую целостность указывает фраза "Я вижу дом") не дан. Для того чтобы воспринимать дом в качестве дома, недостаточно указание на важность соответствующих декларативных (выразительных) средств, а необходимо постулирование особой способности, которая, говоря платоновским языком, есть способность человеческого сознания к "схватыванию идей"; для этого необходимо постулировать способность сознания к восприятию "идей" - "целостностей". Именно этим стремлением человека "схватить" идею" - общий принцип - построения вывода в нашем примере и объясняется появление неправильных ответов: человек старается решить не столько эту конкретную задачу, а "схватить" принцип решения задач подобного типа, не проводя машинообразных вычислений. Описанный выше феномен "творческой ошибки" связан с тем, что при таком подходе возможно порождение "превращенных - не совсем корректных - форм". Тем самым можно сформулировать наш последний тезис:

Существенной особенностью деятельности сознания является способность к "схватыванию идей", синтезированию "целостностей". Именно это позволяет работать с двухуровневой системой описания.

Выявленная особенность человеческого сознания к "схватыванию идей" и составляет сердцевину механизма работы сознания, что является одним из важных итогов философского исследования природы (сущности) сознания. Моделирование этой способности человеческого мышления позволит перейти на качественно новую ступень развития ИИ, позволяющую говорить о моделировании сознания как такового.

Примечания:

  • <1> - под господствующей в настоящее время парадигмой ИИ понимается, прежде всего, компьютерная метафора сознания, заключающаяся в различении "софтвера" и "хардвера", программы и физико-технической системы, обеспечивающей функционирование программы. Согласно этой метафоре сознание для мозга то же, что программа ("софтвер") для аппаратных средств ("хардвера").
  • <2> - правильный ответ НЕТ , поскольку данное исчисление является детерминированным : на каждом шаге вывода можно применить только одно правило вывода (их применение чередуется) и вывод строится однозначно (в этом смысле приводимый пример неоднозначности только сбивал с толку испытуемых). Более того, после чуть более долгого построения вывода нетрудно выявить и общую структуру выводимых формул. В частности выводимыми являются формулы вида a<2 n>bb (a <2 в степени n> bb).
  • <3> - тезис о принципиальной безошибочности "софтера" не исключает возможность технической ошибки, "сбоя" работы программы вследствие неисправности работы элементов "хардвера" (например, из-за скачка напряжения сети или неисправности какой-нибудь микросхемы). В этом смысле существенной разницы между работой искусственного и естественного интеллектов нет. Обсуждение вопроса о надежности результатов как в логическом, так и техническом смыслах, полученных с помощью ЭВМ, выходит за рамки данной статьи. Этому посвящены, например, работы .
  • <4> - заметим, что появившееся в последнее время распараллеливание работы ЭВМ, не приводит к изменению локального характера работы программы.
  • <5> - в работе интеллект рассматривается как некоторая иерархия порождения знаний, в которой можно выделить несколько уровней: 1 уровень - действия с объектами, 2 - логика этих действий ("логика действий"), 3 - металогика (логика "логики действий"). Важнейшим показателем интеллектуальности систем, по мнению В.М. Сергеева, является глубина этой иерархии. Вот как формулируется этот тезис в более поздней работе В.М. Сергеева: "В огромном большинстве построенные до сих пор искусственные интеллектуальные системы обладали очень небольшой глубиной этой иерархии, не более двойки. В настоящее время... очевидна необходимость создания систем, способных действовать "металогически", осмысленно менять логику построения мира - выбирать ее в соответствии с обстоятельствами. Такие системы должны иметь глубину иерархии порождения знаний не менее трех".
  • <5> - в работах С.Ю. Маслова в качестве объясняющего принципа этой познавательной способности выбрана метафора "правого - левого полушария". В рамках этого подхода проблема, поставленная в этой статье, выглядит так. Существующие в настоящее время программы ИИ хорошо моделируют только "левополушарные" механизмы обработки информации, а для моделирования работы сознания необходимо моделирование "правополушарных" механизмов обработки информации. Однако, на сегодняшний день метафора "правого - левого полушария" явно недостаточна для более серьезного разговора о специфике познавательных (сознательных) механизмов.
  • <6> - в логике под "эвристикой" и понимают, прежде всего, средство сокращения перебора , акцентируя внимание "результате" действия эвристики. Причем, в отличие от логических методов поиска, которые полны, т.е. находят решение, если оно существует, эвристические методы поиска такой полнотой не обладают и могут "пропустить" существующее решение.

Литература

  1. Маслов С.Ю. Теория поиска вывода и вопросы психологии творчества //Вопросы семиотики, 1979, вып.13, С.17 - 46
  2. Анисимов А. ЭВМ и понимание математических доказательств //Вопросы философии, 1987, N 3
  3. Логика и компьютер (моделирование рассуждений и проверка правильности программ) М., Наука, 1990
  4. Сергеев В.М. Искусственный интеллект как метод исследования сложных систем //Системные исследования: методологические проблемы (ежегодник) М., Наука, 1984
  5. Сергеев В.М. Искусственный интеллект: Опыт философского осмысления //Будущее искусственного интеллекта М., Наука, 1991
  6. Лорьер Ж.-Л. Системы искусственного интеллекта М., Мир, 1991
  7. Маслов С.Ю. Теория дедуктивных систем и ее применения. - М., Советское радио, 1986.
  8. Маслов С.Ю. Асимметрия познавательных механизмов и ее следствия //Вопросы семиотики, 1983, Вып.20. С.3 - 34
  9. Серебрянников О.Ф. Эвристические принципы и логические исчисления. М.: Наука, 1970.
  10. Пойа Д. Как решать задачу. - М.: Учпедгиз, 1959.
  11. Матурана У. Биология познания //Язык и интеллект. - М., Прогресс, 1995.
  12. Мамардашвили М.К. Как я понимаю философию. - М., Прогресс, 1992.
Cмотрите так же...
Шпаргалки по философии для кандидатского минимума Часть 1
Философия и естествознание: концепции взаимоотношений (метафизическая, трансцендентальная, антиметафизическая, диалектическая).
Природа как объект философствования. Особенности познания природы.
Естествознание: его предмет, сущность, структура. Место естествознания в системе наук
Научная картина мира и её исторические формы. Естественнонаучная картина природы
Проблема объективности знания в современных естественных науках
Современная наука и изменение формирования мировоззренческих установок техногенной цивилизации
Взаимодействие естественных наук друг с другом. Науки о неживой природе и науки о живой природе
Конвергенция естественнонаучного и социально-гуманитарного знания в неклассической науке
Методы естествознания и их классификация.
Математика и естествознание. Возможности применения математики и компьютерного моделирования
Эволюция понятий пространства и времени в истории естествознания
Философия и физика. Эвристические возможности натурфилософии
Проблема дискретности материи
Идеи детерминизма и индетерминизма в естествознании
Принцип дополнительности и его философские интерпретации. Диалектика и квантовая механика
Антропный принцип. Вселенная как «экологическая ниша» человечества.
Проблема происхождения Вселенной. Модели Вселенной.
Проблема поиска внеземных цивилизаций как междисциплинарное направление научного поиска. Концепции ноокосмологии (И. Шкловский, Ф. Дрейк, К. Саган).
. Философские проблемы химии. Соотношение физики и химии.
. Проблема законов биологии
Эволюционная теория: ее развитие и философские интерпретации.
Философия экологии: предпосылки становления.
Этапы развития научной теории биосферы.
Взаимодействие человека и природы: пути его гармонизации.
Философия медицины и медицина как наука. Философские категории и понятия медицины
Проблема происхождения и сущности жизни в современной науке и философии
Понятие информации. Теоретико-информационный подход в современной науке.
Искусственный интеллект и проблема сознания в современной науке и философии
Кибернетика и общая теория систем, их связь с естествознанием.
Роль идей нелинейной динамики и синергетики в развитии современного естествознания.
Роль современного естествознания в преодолении глобальных кризисов.
Постнеклассическое естествознание и поиск нового типа рациональности. Исторически развивающиеся, человекоразмерные объекты, комплексные системы как объекты исследования в постнеклассическом естествознании
Этические проблемы современного естествознания. Кризис идеала ценностно-нейтрального научного исследования
Естествознание, технические науки и техника
All Pages

Искусственный интеллект и проблема сознания в современной науке и философии

Специалисты в области кибернетики сразу же указали на принципиальную возможность моделирования сознания, как индивидуального, так и общественного, при помощи технических средств. Уже в середине 90-х годов была решена проблема моделирования нейронных систем, находящихся на уровне нервной системы головоногого моллюска (порядка 100 тысяч нейронов). Такие системы способны к самообучению, к образованию условных рефлексов и даже к простейшим «умозаключениям», основанным на выявлении аналогий.

Интеллект (по Пиаже Ж.) – высшая форма духовного приспособления к среде путем мгновенной организации стабильных пространственно-временных логических структур.

Машинный (искусственный) интеллект – прежде всего искусственная система, имитирующая решение человеком сложных задач в процессе жизнедеятельности. Таким образом, мышление, разум, интеллект, творчество, рефлексия, высшие уровни психической активности – продукт человеческой деятельности, биологически и социально детерминированной.

Историческая проблематика искусственного интеллекта связана с поисками средневековых мыслителей совершенного «философского» или «первоадамового» языка, через который можно познать абсолютную истину. В процессе превращения мифологических представлений об искусственном интеллекте в рациональную научную конструкцию выделяется три ключевые идеи:

–представление о возможности окончательного рационального познания мира;

–представление об объективном знании, независимом ни от человека, ни от человечества;

–представление об объективности познания, представляющее собой, с точки зрения кибернетики, совокупность процессов получения, передачи и переработки информации.

Исследования в области искусственного интеллекта прошли три этапа.

Первый этап (1950-60-е гг.) – время становления исследовательских программ искусственного интеллекта, формирования круга задач, относящихся к данному научному направлению,создания методов и инструментов решения этих задач (языки программирования Лисп (Lisp), Пролог (Prolog) и др.). Этот этап характеризуется широким общественным резонансом исследований и завышенными ожиданиями.

Второй этап (1960-70-е гг.) связан с приобретением искусственным интеллектом статуса «классической» научно-технической дисциплины, проведением первых международных конференций, началом издания журналов, чтением соответствующих курсов в университетах.

Третий этап (1980-90-е гг.) связан с практическим (коммерческим) использованием достижений искусственного интеллекта

К основным программам искусственного интеллекта относят:

–создание компьютеров, способных выполнять функции, традиционно относимые к области искусственного интеллектуальной деятельности человека;

–попытки моделировать сам человеческий интеллект на основе моделирования мозгового субстрата (нейрокомпьютеры);

–создание искусственных самообучающихся устройств, способных эволюционизировать (кибернетика).

Далее следует отметить основные отличия естественного и машинного мышления. Функция мышления в случае машины сводится к логическому преобразованию знаков, знаковых структур и отношений между ними, представленных на специализированных языках в машинных программах и реализуемых электронными устройствами машины.

В интеллектуальных механизмах выработки решений человека ведущую роль играют образные явления, целостное видение, интуиция и сопровождающие их состояния эмоциональной напряженности. Посредством образов, как психических отображений объекта-источника, происходит регулирование решений и действий и превращение приобретенного опыта в творческую идею.

Компьютеры же работают без таких образов.

Кроме того, мышление человека богаче его логической структуры, которая может быть воспроизведена в машинных процессах.

К мероприятиям по организации взаимодействия человека и компьютера можно отнести следующие:

–использование компьютерной техники в области управления для подготовки принятия решений человеком;

–взаимодействие человека и машины в области познавательной деятельности для решения системных прогностических задач (методы имитационного моделирования);

–организация информационного обслуживания на основе диалогового взаимодействия человека и компьютера в информационной сфере и др.

Интеллектуальный потенциал систем «человек-компьютер» обладает определенным своеобразием, которое состоит в том, что эти системы дают не только средства для познания и проектирования реальности (прежде всего информационной среды, окружающей человека), но и сами «включены» в эту реальность.

Кроме того, резко увеличивается эффективность использования интеллектуальных ресурсов общества (развитие баз данных, технические и программные средства взаимодействия и др.). Это позволяет строить из данных гораздо более разнообразные и гибкие семантические структуры и отношения, преобразовывать их, собирать во фрагменты, обновлять, исключать, представлять все богатство состояний предметного мира в виде набора моделей для решения новых прикладных задач.

Сознание является одной из традиционных вечных философских загадок. В самом общем виде «сознание» является одним из наиболее общих философских понятий, обозначающих субъективную реальность, связанную с деятельностью мозга и его продуктами: мыслями, чувствами, идеями, предрассудками, научными и вненаучными знаниями. Без выяснения места и роли этой реальности невозможно создание ни философской, ни научной картины мира.

В философии сложились и сохраняют свое значение в современной культуре следующие концепции сознания.

Объективно-идеалистическая интерпретация сознания как сверхчеловеческой, надличностной, в конечном счете трансцендентальной идеи (мир идей у Платона; абсолютная идея у Гегеля; Бог у теологов; инопланетный разум у уфологов), лежащей в основе всех форм земного бытия. Человеческое сознание есть частица, продукт или инобытие мирового разума.

Субъективно-идеалистические системы рассматривают сознание человека как самодостаточную сущность, содержащую картину самой себя и являющейся субстанцией материального мира (Р.Декарт, Дж. Беркли).

Гилозоизм (овеществленная жизнь) утверждает, что вся материя мыслит, сознание является атрибутивным свойством всего материального мира. С точки зрения гилозоизма, вся материя одушевлена или, по крайней мере, обладает предпосылками к мышлению. Эта концепция восходит к ранним учениям милетской школы, ее элементы содержатся в учениях Аристотеля, Дж. Бруно, Б.Спинозы. Данные современной науки об элементах рассудочной деятельности животных, успехи физиологии в диагностике заболеваний центральной нервной системы, достижения кибернетики в создании «мыслящих машин» возрождают идеи гилозоизма и психофизиологического параллелизма, согласно которому и психическое, и физиологическое есть две самостоятельные сущности, исследование которых должно вестись через собственную субстанциональность.

Вульгарный материализм как редукционистское отождествление сознания с вещественными образованиями в мозгу человека. Сознание имеет чисто материальный характер, оно результат функционирования определенных частей или образований мозга. Отрицание качественной специфики сознания, мышления человека своими истоками уходит в античную культуру и особенно ярко проявилось в античном атомизме, но особую популярность материализация сознания получила в конце XVIII – начале XIX века в связи с распространением идеи дарвинизма. Наиболее видные его представители К. Фогт, Л. Бюхнер, Я. Молешотт, пропагандируя достижения науки середины XIX века, огрубляли, упрощали сложнейшую философскую и психофизическую проблему, проблему соотношения материи и сознания. В XX веке, в связи с успехами решения технических задач конструирования искусственного интеллекта, философскими дискуссиями по поводу проблемы «может ли машина мыслить?», исследованиями, обнаружившими непосредственную взаимосвязь между содержательной стороной мышления и структурой протекающих в мозгу процессов, вновь актуализировались идеи характеристики мышления как атрибута материального субстрата.

Социологизация сознания. Сознание ставится в абсолютную зависимость от внешней, в том числе и социальной среды. У истоков этих идей стоит Дж. Локк и его последователи, французские материалисты XVIII века, считающие, что человек рождается с душой, сознанием, как чистый лист бумаги. Критикуя концепцию «врожденных идей» Декарта, они считали, что содержание идей, понятий, при помощи которых человек анализирует данные органов чувств об отдельных свойствах вещей, формирует общество, воспитание. Зачатки этой концепции можно обнаружить уже у Аристотеля, ставящего формирование способностей, добродетелей человека в зависимость от потребностей общества, интересов государства – полиса. В этих идеях отрицается индивидуальность мышления человека, зависимость способностей мыслящего индивида от особенностей строения и функционирования его центральной нервной системы.

Диалектический материализм подходит к изучению сознания как сложному, внутренне противоречивому феномену единства материального и идеального, объективного и субъективного, биологического и социального. Опираясь на достижения классической и современной науки, диалектико-материалистическая концепция сознания вскрывает сущностные черты и особенности человеческого сознания.

Сознание – идеальное явление, функция, особое свойство, продукт высокоорганизованного материального субстрата – человеческого мозга, мыслящей материи.

Сознание – идеальный образ, снимок, копия, отражение в мозгу субъекта материального объекта.

Сознание обладает творческой активностью, проявляющейся в относительной самостоятельности его функционирования и развития и обратном воздействии на материальный мир.

Сознание - продукт общественно-исторического развития, вне общества оно не возникает и не может существовать.

Сознание как идеальное отражение материального мира не существует без языка как материальной формы своего выражения.

Все шесть рассмотренных концепций содержат в себе долю истины в понимании природы сознания, имеют своих сторонников, достоинства и ограниченности, отвечают на одни вопросы, но не дают ответов на другие и потому имеют равные права на существование в рамках философского знания. В неклассической и постнеклассической философии складывается парадоксальная ситуация: в теоретическом отношении вопрос о специфике сознания и, следовательно, о философском статусе феномена сознания ставится под сомнение, а практическое изучение сознания объективными, в том числе научными, методами активизируется, что свидетельствует о непреходящем значении и значимости человеческого мышления. На протяжении всего XX века одни участники в спорах о природе сознания воспроизводят идеи об ирреальности, трансцендентности сознания, а другие сводят сознание к языку, поведению, к нейрофизиологическим процессам, отрицая специфику и особую, свойственную самому сознанию структуру и сущность.

Разнообразие интерпретаций сознания связано в первую очередь, с вопросом о природе сознания и обоснованием его содержания. Представители современного конкретно-научного знания и философские системы, ориентирующиеся на науку, отдают предпочтение диалектико-материалистической концепции, которая в отличие от других дает возможность исследовать различные формы и продукты мыслительной деятельности научными методами. Однако, несмотря на популярность в научном сообществе, данная концепция не дает логически непротиворечивых и проверяемых на практике ответов на самые сложные, фундаментальные вопросы проблемы сознания:

Сознание формируется в результате естественно-исторической эволюции материи и ее всеобщего, атрибутивного свойства – отражения. В процессе эволюционного развития материя, все больше усложняясь в своей структурной организации, порождает такой субстрат, как мозг. Вне мозга, способного вырабатывать информацию не только для приспособления к действительности, но и к ее преобразованию, сознание не возникает. Следовательно, в появлении развитого головного мозга, психической формы отражения и состоит основной результат эволюции дочеловеческих форм отражения.

На всем протяжении развития философии, начиная с античности, неоднократно ставилась проблема соотношения психических и физических (а затем и физиологических) явлений и процессов. Особый интерес к ней проявился в философии Нового времени в связи с поисками оснований человеческого сознания. Так, гилозоизм (от греч. hyle - вещество, материя, zoe - жизнь), исходивший из признания одушевленности всех тел, Космоса, природы, пытался отыскать корни психических явлений в материальном мире. Разделявший его установки Б. Спиноза, например, считал мышление атрибутом материи, свойством, присущим всей природе.

В XIX в. вульгарным материализмом (от лат. vulgarus - обыкновенный, простой), теоретическим предшественником которого являлся французский философ XVIII в. П. Кабанис, были предприняты попытки свести сложные психические процессы к физиологическим проявлениям работы человеческого мозга. Современные варианты этой традиции, в частности, представлены в биополевых концепциях сознания, точно так же недооценивающих идеальную сущность сознания, его социокультурную природу.

В отличие от вульгарного материализма и идеализма, диалектико-материалистическая философия исходила из признания того, что сознание человека, будучи идеальным по своей природе, является функциональным свойством высокоорганизованной материи - человеческого мозга.

Во 2-й половине XX в. благодаря информационно-компьютерной революции возникли новые возможности исследования работы человеческого мозга и его функций с помощью систем искусственного интеллекта. В исследованиях по искусственному интеллекту можно выделить четыре взаимосвязанные области, в которых разрабатываются:

1) системы, имитирующие отдельные творческие процессы (программы для решения игровых задач, автоматического перевода, доказательства теорем, распознавания изображений и т. д.);

2) интеллектуальные системы, основанные на знаниях (информационно-поисковые, расчетно-логические, экспертные);

3) новая архитектура ЭВМ (ЭВМ пятого поколения и новые технологии их использования);

4) интеллектуальные роботы (например, автономные транспортные средства, вооруженные многочисленными сенсорными системами).

Разработки в области искусственного интеллекта заложили реальную основу для проверки философских и научных гипотез о природе человеческого разума. Философия оказалась сопричастной экспериментальной деятельности, осуществляемой при разработке программ искусственного интеллекта. Так, например, в ходе попыток создания универсальных обучающих программ (М. Бонгард) была успешно апробирована идея Дж. Локка о распознавании как основе мышления. Создание программ, понимающих естественный язык, программ, способных доказывать математические теоремы, в частности, базируется на трактовке разума Г. Лейбницем, рассматривавшим его не в качестве «чистой доски», а, выражаясь современным языком, совокупности специализированных программ, подключающихся к работе по мере необходимости. За обнаружившейся необходимостью введения в программы искусственного интеллекта «универсальных объяснительных схем» просматривается идея И. Канта о существовании «априорных синтетических суждений», таких, как понятие причинности, представление о пространстве и времени.


В современной гуманитаристике проблема искусственного интеллекта рассматривается в следующих аспектах:

1) разработка критериев эффективности разрабатываемых алгоритмов обработки неформализованных данных (таких, как обычная человеческая речь), языковой коммуникации с другими машинами и людьми «на право» считаться искусственным интеллектом (это связано с именем Алана Тьюринга и предложенным им «тестом Тьюринга» - искусственным интеллектом может считаться такой алгоритм, при общении с которым независимый наблюдатель-человек не сможет провести различие между человеком и машиной;

2) обсуждение антропологических проблем в контексте информационных технологий (что есть «человек», если большинство реальных жизненных функций человека можно свести к коммуникации в сетевой среде; что произойдет, если мощь искусственного интеллекта по каким-то причинам вступит в противоборство с человеческим; условно говоря, «за счет чего армия людей сможет победить армию боевых роботов, и сможет ли вообще» - вопрос пока из области фантастики, но доступный для теоретического моделирования);

3) обсуждение особой этики информационного общества, этикета сетевого общения и «этикета» для машин.

В обсуждении этих и других подобных вопросов принимают участие не только ученые и специалисты в сфере ИТ, но философы, культурологи, психологи (Славой Жижек, Умберто Эко, Мануэль Кастельс и др.)

Таким образом, разработка проблемы искусственного интеллекта создает предпосылки для синтеза естественнонаучного и гуманитарного подходов к анализу феномена человеческого сознания, к разгадке его тайны.

Проблемы моделирования сознания. Искусственный интеллект

На всем протяжении развития философии, начиная с античности, неоднократно ставилась проблема соотношения психических и физических (а затем и физиологических) явлений и процессов. Особый интерес к ней проявился в философии Нового времени в связи с поисками оснований человеческого сознания. Так, гилозоизм (от греч. hyle - вещество, материя, zoe - жизнь), исходивший из признания одушевленности всех тел, Космоса, природы, пытался отыскать корни психических явлений в материальном мире. Разделявший его установки Б. Спиноза, например, считал мышление атрибутом материи, свойством, присущим всей природе.

В XIX в. вульгарным материализмом (от лат. vulgarus - обыкновенный, простой), теоретическим предшественником которого являлся французский философ XVIII в. П. Кабанис, были предприняты попытки свести сложные психические процессы к физиологическим проявлениям работы человеческого мозга. Современные варианты этой традиции, в частности, представлены в биополевых концепциях сознания, точно так же недооценивающих идеальную сущность сознания, его социокультурную природу.

В отличие от вульгарного материализма и идеализма, диалектико-материалистическая философия исходила из признания того, что сознание человека, будучи идеальным по своей природе, является функциональным свойством высокоорганизованной материи - человеческого мозга.

Во 2-й половине XX в. благодаря информационно-компьютерной революции возникли новые возможности исследования работы человеческого мозга и его функций с помощью систем искусственного интеллекта. В исследованиях по искусственному интеллекту можно выделить четыре взаимосвязанные области, в которых разрабатываются:

1) системы, имитирующие отдельные творческие процессы (программы для решения игровых задач, автоматического перевода, доказательства теорем, распознавания изображений и т. д.);

2) интеллектуальные системы, основанные на знаниях (информационно-поисковые, расчетно-логические, экспертные);

3) новая архитектура ЭВМ (ЭВМ пятого поколения и новые технологии их использования);

4) интеллектуальные роботы (например, автономные транспортные средства, вооруженные многочисленными сенсорными системами).

Разработки в области искусственного интеллекта заложили реальную основу для проверки философских и научных гипотез о природе человеческого разума. Философия оказалась сопричастной экспериментальной деятельности, осуществляемой при разработке программ искусственного интеллекта. Так, например, в ходе попыток создания универсальных обучающих программ (М. Бонгард) была успешно апробирована идея Дж. Локка о распознавании как основе мышления. Создание программ, понимающих естественный язык, программ, способных доказывать математические теоремы, в частности, базируется на трактовке разума Г. Лейбницем, рассматривавшим его не в качестве «чистой доски», а, выражаясь современным языком, совокупности специализированных программ, подключающихся к работе по мере необходимости. За обнаружившейся необходимостью введения в программы искусственного интеллекта «универсальных объяснительных схем» просматривается идея И. Канта о существовании «априорных синтетических суждений», таких, как понятие причинности, представление о пространстве и времени.

В современной гуманитаристике проблема искусственного интеллекта рассматривается в следующих аспектах:

1) разработка критериев эффективности разрабатываемых алгоритмов обработки неформализованных данных (таких, как обычная человеческая речь), языковой коммуникации с другими машинами и людьми «на право» считаться искусственным интеллектом (это связано с именем Алана Тьюринга и предложенным им «тестом Тьюринга» - искусственным интеллектом может считаться такой алгоритм, при общении с которым независимый наблюдатель-человек не сможет провести различие между человеком и машиной;

2) обсуждение антропологических проблем в контексте информационных технологий (что есть «человек», если большинство реальных жизненных функций человека можно свести к коммуникации в сетевой среде; что произойдет, если мощь искусственного интеллекта по каким-то причинам вступит в противоборство с человеческим; условно говоря, «за счет чего армия людей сможет победить армию боевых роботов, и сможет ли вообще» - вопрос пока из области фантастики, но доступный для теоретического моделирования);

Loading...Loading...