THE BELL

Есть те, кто прочитали эту новость раньше вас.
Подпишитесь, чтобы получать статьи свежими.
Email
Имя
Фамилия
Как вы хотите читать The Bell
Без спама

Может ли машина мыслить?

Не совсем ясно, как компьютер может делать что-либо, чего "нет в программе"? Разве можно скомандовать кому бы то ни было рассуждать, догадываться, делать выводы?

Противники тезиса о "мыслящих машинах" обычно считают достаточным сослаться на общеизвестный факт: компьютер в любом случае делает лишь то, что задано в его программе, - и, следовательно, никогда не сможет "думать", так как "мысли по программе" уже нельзя считать "мыслями".

Это и верно, и неверно. Строго говоря, действительно: если компьютер делает не то, что в данный момент предписывается ему программой, то его следует считать испортившимся.

Однако то, что представляется "программой" человеку, и то, что является программой для компьютера, - вещи очень разные. Ни один компьютер не сможет выполнить "программу" похода в магазин за продуктами, которую вы вкладываете в голову десятилетнего сына, - даже если эта "программа" включает только совершенно однозначные инструкции.

Разница заключается в том, что компьютерные программы состоят из огромного количества гораздо более мелких, частных команд. Из десятков и сотен таких микрокоманд складывается один шаг, из тысяч и даже миллионов - вся программа похода за продуктами в том виде, в каком ее смог бы выполнить компьютер.

Сколь бы смешным ни казалось нам такое мелочное регламентирование, для компьютера этот способ является единственно применимым. И самое удивительное - что он дает компьютеру возможность быть гораздо более "непредсказуемым", чем принято обычно считать!

В самом деле: если бы вся программа состояла из одного приказа "сходить за продуктами", то компьютер по определению не смог бы сделать ничего другого - он упрямо шел бы в универсам, что бы ни происходило вокруг. Иными словами, хотя для понимания короткой программы обязателен "человеческий" интеллект, результат такой программы - выполняй ее компьютер, а не человек - был бы детерминирован весьма жестко.

Мы, однако, вынуждены давать компьютерам гораздо более подробные инструкции, определяя малейший их шаг. При этом нам приходится добавлять в программу и такие инструкции, которые впрямую не относятся к данной задаче. Так, в нашем примере роботу необходимо сообщить правила перехода улицы (и правило "если на тебя едет машина, отпрыгивай в сторону").

Эти инструкции обязательно должны включать в себя проверку некоторых условий для принятия решений, обращение за справками (о погоде, о местоположении магазинов) к тем или иным базам данных, сравнение важности различных обстоятельств и многое другое. В результате компьютер с такой программой получает гораздо больше "степеней свободы" - существует очень много мест, в которых он может отклониться от пути к конечной цели.

Разумеется, в подавляющем большинстве случаев эти отклонения будут нежелательными, и мы стараемся создать для работы компьютера такие условия, в которых риск "выскакивающего из-за угла автомобиля" был бы минимальным. Но жизнь есть жизнь, и все мыслимые сюрпризы предусмотреть невозможно. Вот почему компьютер способен удивить как неожиданно "разумной" реакцией на, казалось бы, непредсказуемые обстоятельства, так и невероятной "глупостью" даже в самых ординарных ситуациях (чаще, к сожалению, последнее).

Именно построение сложных программ на основе детального анализа мельчайших шагов, из которых складывается процесс мышления у человека, и составляет современный подход к созданию "думающих машин" (во всяком случае, один из подходов). Конечно, сложность - это далеко не все. И все же из ученых, занимающихся этой проблемой, мало кто сомневается в том, что "умные" программы XXI века будут отличаться от современных прежде всего неизмеримо большей сложностью и количеством элементарных инструкций.

Многие современные системы обработки информации уже настолько сложны, что некоторые особенности их поведения просто невозможно вывести из самих программ - их приходится в буквальном смысле слова исследовать, ставя эксперименты и проверяя гипотезы. И наоборот - многие черты разумной деятельности человека, которые на первый взгляд кажутся едва ли не "озарениями свыше", уже достаточно хорошо моделируются сложными программами, состоящими из множества простых шагов.

Алан Тьюринг предложил эксперимент, который позволил бы проверить наличие сознания у компьютера, а Джон Сёрль предложил мысленный эксперимент, который должен опровергать эксперимент Тьюринга. Разбираемся в обоих аргументах и заодно пытаемся понять, что такое сознание.

Тест Тьюринга

В 1950 году в работе «Вычислительные машины и разум» британский математик Алан Тьюринг предложил свой знаменитый тест, позволяющий, по его мнению, определить, способна ли та или иная вычислительная машина мыслить. Тест, по сути дела, копировал распространённую тогда в Британии игру в имитацию. В ней участвовали три человека: ведущий и мужчина с женщиной. Ведущий сидел за ширмой и мог общаться с двумя другими игроками только с помощью записок. Его задача состояла в том, чтобы угадать, какого пола каждый из его собеседников. При этом они вовсе не обязаны были отвечать правдиво на его вопросы.

Тот же самый принцип Тьюринг использовал и в тесте на наличие интеллекта у машины. Только ведущий в нём должен угадать не пол собеседника, а является ли он машиной или человеком. Если машина сможет достаточно успешно имитировать поведение человека и запутывать ведущего, то она пройдёт тест и, предположительно, докажет, что у неё есть сознание и что она мыслит.

Молодой Алан Тьюринг (фотография на паспорт).
Источник: Wikimedia.org

Китайская комната

В 1980 году философ Джон Сёрль предложил мысленный эксперимент, который мог бы опровергнуть позицию Тьюринга.

Представим себе следующую ситуацию. Человек, который не говорит и не читает на китайском языке, попадает в комнату. В этой комнате есть таблички с китайскими символами, а также книга на том языке, на котором разговаривает этот человек. В книге описано, что делать с символами, если в комнату попадут другие символы. Вне комнаты находится независимый наблюдатель, который говорит по-китайски. Его задача состоит в том, чтобы разговаривать с человеком из комнаты, например посредством записок, и выяснить, понимает ли его собеседник китайский язык.

Цель эксперимента Сёрля – продемонстрировать, что даже если наблюдатель поверит, что его собеседник умеет говорить по-китайски, человек в комнате всё равно не будет знать китайский язык. Он не будет понимать символов, которыми оперирует. Точно так же и «машина Тьюринга», которая смогла бы пройти одноимённый тест, не понимала бы символов, которые она использует, и, соответственно, не обладала бы сознанием.

По мнению Сёрля, даже если бы подобная машина смогла ходить, разговаривать, оперировать предметами и изображать из себя полноценного мыслящего человека, она всё равно не обладала бы сознанием, поскольку она только исполняла бы заложенную в неё программу, отвечая заданными реакциями на заданные сигналы.

Философский зомби

Однако представим себе следующую ситуацию, предложенную Дэвидом Чалмерсом в 1996 году. Представим себе так называемого «философского зомби» - некоторое существо, которое по всем признакам похоже на человека. Оно выглядит как человек, разговаривает как человек, реагирует на сигналы и раздражители как человек и вообще во всех возможных ситуациях ведёт себя как человек. Но при этом у него отсутствует сознание, и оно не испытывает никаких чувств. Оно реагирует на то, что причинило бы человеку боль или удовольствие, как если бы оно было человеком, который испытывает эти ощущения. Но при этом оно не переживает их на самом деле, а только имитирует реакцию.

Возможно ли такое существо? Как нам отличить его от реального человека, который испытывает чувства? Что вообще отличает философского зомби от людей? Может ли быть так, что они среди нас? А может быть, все, кроме нас, - философские зомби?

Дело в том, что нам в любом случае недоступен внутренний субъективный опыт других людей. Нам недоступно никакое сознание, кроме нашего собственного. Мы изначально только предполагаем, что у других людей оно есть, что они похожи на нас, потому что у нас в общем-то нет особых поводов в этом сомневаться, ведь другие ведут себя так же, как и мы.

Знакомое название, не правда ли? В эпоху компьютерной эйфории прошлого века этот вопрос занимал всех. Со временем накал дискуссий ослаб: люди решили, что ЭВМ – нечто иное и чуждое и похожей на человека она не будет. А поэтому и неинтересно, может ли она мыслить. Вот например не вызывает же особо горячих дискуссий вопрос, мыслят ли животные. И не потому, что ответ очевиден, а потому, что очевидно совсем другое – они не мыслят, как человек. Угрозы конкуренции с человеком нет – и делается неинтересно. Задача этой статьи – показать

1) как сегодня мыслит машина,

2) как она будет мыслить завтра,

3) как сделать, чтобы это мышление было человекоподобным, и, наконец, дать ответ на вопрос, который некоторые считают главным – опасно ли это для человека.

Тест его имени

Жил да был в середине прошлого века в Англии Алан Тьюринг, человек непонятно какой специальности. Математики с присущим им снобизмом не сочли бы его математиком, слова «кибернетик» тогда не было (да и сейчас нет). Человек он был неординарный, увлекался и занимался множеством вещей, в том числе – компьютерами. И хоть это была заря компьютерной эпохи, но уже тогда стало ясно, что компьютер – это вам не арифмометр. И для того, чтобы понять, как он работает и может работать, к нему надо относиться как к обычному сложному объекту научного исследования – то есть строить его модели. Одна из таких теоретических моделей «компьютера вообще» была придумана Тьюрингом, ее позже и назвали «машина Тьюринга» Ничего удивительного в этом нет – вон, в химии сотни именных реакций и соединений. Но он придумал еще одну вещь, которую тоже назвали его именем. И которая, в отличие от именных реакций и теоретических моделей компьютера, известна и неспециалистам. Это способ выяснить мыслит ли машина, и называется он «тест Тьюринга». Состоит он в следующем: машину можно назвать мыслящей, если она способна разговаривать с человеком, и он не сможет отличить компьютер от собеседника-человека. По тогдашним временам под «разговаривать» понимался, естественно, не милый женский голосок из динамика, а телетайп.

Обоснование

Человек – самовлюбленное существо, и лучше всех это выразил тот древний грек, который изрек: «Человек – мера всех вещей». Ни одна кошка не ломает себе голову над вопросом: «Отчего собака – не кошка?» Человек же непрерывно ищет то самое, что отличает его от обезьян. На обсуждение теста Тьюринга потрачено времени и сил – немерено, но в итоге гора родила маленькое, серенькое, с хвостиком... Исследователи сошлись на том, что этот тест – на человекоподобное мышление, а не на мышление вообще. Как они решили, что этот зверь – кошка, а не собака, не видя ни одной собаки и даже не зная, существуют ли вообще собаки, – не постигаю. Однако они не только это решили, но и разделились на два лагеря.

Одни утверждают, что в человеческом мышлении есть нечто, чего в принципе не может быть в машине (как на Солнце – пятен...). Примеры: эмоции, целеполагание (желания), способность к телепатии, нечто, именуемое «душой». Другие стали придумывать, как реализовать в железке чисто человеческие черты. Позиция первых бездоказательна и, может, поэтому дискутироваться до бесконечности, второе интереснее как задача, позволяет проявить профессионализм и изобретательность, но попахивает жульничеством. Тьюринг не оговаривал, как именно должна быть построена программа, так что формально правила игры не нарушены и во втором случае. Однако мы подозреваем, что в человеке «это» устроено иначе, нежели Джон и Иван сделали в своей замечательной программе.

Гладко было на перфоленте

Когда А. Т. сформулировал свой тест, ситуация казалась простой. Отличит или нет? Но один отличит, а другой – нет. Один скажет – это человек, другой осторожнее – не могу определить, третий – что-то здесь не то, чую, но не могу уловить, четвертый, пятый и шестой скажут что-то еще. Кроме того, разные люди мыслят по-разному. Даже если не рассматривать клинические случаи, то все равно границу установить не удастся. IQ = 50 – это клиника, а IQ = 90? Просто немного туповат? А IQ = 70? Но и при сохранном интеллекте есть такое неформальное (популярное у наших учеников) понятие «тормоз». Есть «липкое внимание». Есть миллион вещей, которые накладывают отпечаток на психику и манеру разговора. И это только самый краешек болота.

Люди могут принадлежать к разным культурам. Сдержанному англичанину непросто понять вечно улыбающегося американца, а им обоим – японца, который с каменным лицом совершает самоубийство. Европеец считает, что свои проблемы можно вешать на других, американец полагает, что это неэтично, а японец должен сохранять лицо в любой ситуации.

Кроме европейца, американца и японца есть еще собиратель устриц с атолла, охотник на газелей из африканского буша, изготовитель кокаина из «золотого треугольника», добытчик нерпы с макушки земного шара. Теперь посмотрим на исторические часы. Пять тысяч лет назад уже были люди. И если вы не христианин или иудей, то согласитесь с тем, что десять тысяч лет назад – тоже. А пятнадцать? А тридцать? Где во времени пролегает эта граница? Проводить ли ее по способности разговаривать с вами? Если нет – то как квалифицировать в смысле теста Тьюринга ту даму, которую антропологи назвали Люси? Человек, который не мыслит как человек, – или не-человек, который мыслит как человек?

Сухой остаток невелик и печален: у нас нет никаких, даже примитивных, определений понятий «человек» и «человеческое мышление». За одно то, что он нам помог это понять, – земной поклон мистеру Тьюрингу. А еще за то, что он разгадал секрет германской шифровальной машины «Энигма», и трудно сосчитать, сколько спас жизней в армиях союзников во время Второй мировой войны.

Здесь и сейчас

Ограничимся ситуацией «здесь и сейчас», не будем апеллировать к создателю пяти (или семи – ученые спорят) псалмов Эйтану и к безымянному собирателю моллюсков с Рапа-Нуи. Может ли машина имитировать нормального среднего человека, если собеседник не пытается ее «подловить»? Ответ давно известен, и этот ответ положителен.

Почти 40 лет назад Джозеф Вейценбаум из Массачусетского технологического института создал программу «Элиза» (название – в честь Элизы Дулиттл), по нынешним понятиям, простенькую. И эта программа успешно поддерживала диалог с человеком, причем собеседник-человек втягивался в разговор так, что некоторые испытуемые просили экспериментатора выйти из комнаты, а потом – стереть запись разговора. Человек легко откровенничал с машиной. Она «просто» умело задавала вопросы о том, про что человек уже что-то рассказал. «Мне кажется, что моя мать меня не любит. – Расскажите мне о вашей матери». «Мои друзья не обращают на меня внимания. – Давно ли вы стали замечать это?»

Такое общение составляет заметную часть сетевого графика и бесед в кабинете врача. Может быть потому, что в этих двух ситуациях, как и при общении с программой, откровенность представляется неопасной? Научить программу делать такие вещи не просто, но факт налицо. Расположенный к диалогу (а не к конфронтации) человек втягивался. Это означает, что проблема не безнадежна, хотя «Элиза» не столько говорила сама, сколько «принимала мячик». И, кроме того, человек не пытается, как это предполагает тест Тьюринга, разобраться в ситуации.

Программа не смогла бы поддержать разговор на тему, требующую специальных знаний. Да и простой человеческий быт представлял для нее загадку. О телевидении высокой четкости (ТВЧ) с ней поговорить бы не удалось, и посоветоваться насчет выбора обоев для кухни – тоже. (Впрочем, как и со многими людьми.) Но сегодня подобную программу можно подключить к любым базам данных. Равно как и – хотя это и непросто – научить строить на основе этих данных гипотезы. Почему А. выиграл у Б. в пятом раунде? Побьет ли В. противника и изберут ли Г.? И так далее.

Заметим, что проблема внесения «осмысленности» в работу Сети вполне осмыслена наукой – у нее уже есть имя собственное «web intelligence». Хотя это имя дали не те, кто занимается искусственным интеллектом, а те, кто занимается Сетью, так сказать, роет тоннель с другой стороны. Вообще же под названием «искусственный интеллект» сегодня собирают работы трех типов. Исследования «вещей» – то есть программ, классов программ и устройств, например персептрона. Второй тип работ – решение прикладных задач, например распознавание объектов какого-либо класса (речи, аэрофотоснимков, фотографий человека, отпечатков пальцев...). Третий тип работ – изучение методов. Очевидно, что эти классы не изолированы.

Проверка с пристрастием

Экзаменатор в тесте Тьюринга – это не нервически ломающая руки мадемуазель с флаконом нюхательной соли и не обремененный семейными проблемами топ-менеджер, спешащий на кушетку психотерапевта. Это критически настроенный специалист, профи. Поэтому одно из направлений работ на этом участке фронта – обнаружение (путем наблюдения за людьми или самонаблюдения) каких-то черт, особенностей, механизмов человеческого мышления и попытки оснастить этими механизмами программу. Подвесить ей еще пару ракет на подкрыльевые пилоны.

Вот один пример – ассоциативное мышление. Структура ассоциаций индивидуальна: для одного «карабин» – это шкура на полу перед камином, для другого – снег и синее. Для общеизвестных связей – очередность и скорость. У одного на «писатель» раньше выскакивает «Пушкин», а у другого – «Булгаков». Один на «пиво» реагирует «воблой» за наносекунду, другой – лишь за микро. Надо ли пояснять, что структура ассоциаций у представителя другой культуры будет отличаться радикально?

И структуру ассоциативного поля, и скорость ассоциаций можно прописать в программе «руками», но это не совсем честно. Откуда берет свою структуру человек? Из жизни – из своей жизни и из книг. Кто нам мешает научить программу брать ассоциации из книг? В Сети нынче книг немало, да и не только книг. Можно послать запрос с любым словом, собрать пришедшие тексты и, анализируя окружение целевого слова, посмотреть, с чем оно ассоциировано.

При этом довольно легко создается – причем тем же способом, что и у человека, – смысловая связность ассоциативного поля. Действительно, если для данного человека «карабин» – это «шкура», то «кошка» для него «большая», а если для него «карабин» – это «снег и синее», то «кошка» – «двенадцатизубая».

Программа реализует такое легко – она запоминает тексты, из которых взяла ассоциацию, и впоследствии учитывает при пополнении ассоциативного поля именно эти тексты с большим весом, нежели другие. У человека это называется «любимая книга».

Некоторое отличие программы от человека состоит в том, что человек пользуется книгами, написанными людьми, то есть «собой же», а программа – нет. Для полной аналогии программа должна пользоваться «книгами, написанными программами». В узком смысле слова таких книг сегодня нет, но тексты, созданные программами, есть. Например, тот же результат поиска в Сети – это уже соавторство человека и машины. Известны программы для обработки текстов, например для выборки из новостной ленты сообщений о неком N или для анализа – кто упоминается рядом с N и выборки всех, кто упоминается рядом. Есть программы для придания окраски текстам – мрачной или, наоборот, веселенькой. Их авторы сообщают, что свои программы они продали политикам Х и Y для предвыборной агитации. Правда, не сообщают, победило ли это жулье.

Конечно, сама идея программы принадлежит человеку, но если мы, например, установим критерий качества работы такой программы и предоставим машине производить оптимизацию, то получится программа с обратной связью. Она будет извлекать информацию из жизни, оптимизируясь, подбирая свой алгоритм работы так, чтобы результат был наилучшим. Если вернуться к первому примеру – чтобы было выявлено, кому N загнал партию оружейного плутония, если обратиться ко второму примеру – чтобы был избран X, а не Y.

Еще одно важное отличие программы от человека всегда состояло в том, что у человека есть внешний мир, а у программы – нет. Это сильное утверждение, но оно неверно, причем дважды. Внешний мир у программы теперь имеется – это Сеть, и выше мы объяснили, как она может использоваться. Но – поскольку скептик продолжает кривиться (он до сих пор называет железную дорогу чугункой, а по электронной почте его письма отправляют друзья), мы укажем на «еще один» внешний мир программ. Это просто наш с ними общий мир, природа и общество, человек. Программа подключена к внешнему миру, разумеется, и через Сеть. В конце концов, о чем пишут в Сети? О природе, обществе и человеке. Но подключена она к миру и без Сети, напрямую – через экспериментальные установки, управляемые программами, же и, в перспективе, через механизм оптимизации программ по результатам их воздействия на мир

«Человеческое, слишком человеческое»

Другой способ подкопаться к программе – это поискать у нее фобии, комплексы, эмоции. Один человек боится мышей, другой может часами обсуждать комнатные цветы, у третьих любимая тема – что мало платят. У программы такого нет. Некоторые предлагают считать машинными фобиями глюки и баги, но это, наверное, шутки. На самом же деле создать ей фобии и комплексы можно «ручками» – указать, какие темы ассоциируются быстрее, а какие слова отторгаются. Правда, мы опять ощущаем некорректность нашего поведения. Во-первых, потому, что у человека это происходит не всегда по указке свыше, а иногда и само. Во-вторых, потому, что, создавая «психику» руками, я могу сделать нечто такое, чего «не бывает». И чуткий человек скажет – ну нет, господа, это программа! Не бывает таких фобий, чтобы он крыс любил, а мышей боялся! Поэтому структура фобий, комплексов, пристрастий и т.п. должна формироваться сама, и это можно сделать.

Если программа, работающая с Сетью или непосредственно с внешним миром, будет запоминать свою деятельность, писать лог-файл, то она может обнаружить, какие способы действий, какие ассоциации приводили ее к цели. Память об этих действиях – успешных и нет – и станет ее симпатиями и антипатиями. И никакой Броневой не поймает этого электронного Исаева.

Механизм действия «указки свыше» сложен; подсказка должна упасть на подготовленную почву, согласоваться с комплексами и мифами. Сколько повторяли, что «народ и партия едины», – как об стену горох. А достаточно было несколько раз произнести «олигархи», как все забыли и про павловскую реформу, устроенную государством, и про дефолт, устроенный им же. Так что с зомбированием не все так просто. На голом месте его не провести, но хороший политик, понимающий народные чаяния, может многого добиться. Такой же механизм действен и при «воспитании» программы. Управляя окружающим ее миром, подсовывая ей определенные тексты и объекты, можно ее формировать – даже не зная, как она устроена. Разумеется, могут устраивать такие штуки и программы – и с человеком, и друг с другом.

Маленькое отступление. Как изображают возникновение машинного разума – причем не в роботе, где это может быть предопределено сюжетом, а именно в программе, не предназначенной стать разумной, – писатели-фантасты? Это отдельная интересная тема, но относящаяся к филологии и психологии. Полноты ради упомянем, что это либо указание на появление свободы воли (знаменитая фраза Стругацких «она начала себя вести»), либо просто описание вполне человеческого поведения. Действительно, трудно человеку придумать что-то совсем уж не человеческое. Интуитивно ощущая это, писатели вкладывают возникновение человеческого в манекен, в игрушку, саму по себе предназначенную для изображения человека, – но без собственного разума. Классический пример – «Театр теней» Саймака (1950). Последний (на момент написания этого текста) – Ю. Манов («Я и прочие боги этого мира») изобразил возникновение разума в персонаже компьютерной игры.

Еще несколько возражений

В качестве свойств, которые есть у человека, но которых нет и не может быть у программы, называют способность к творчеству, к созданию нового, стремление к знанию. Это еще один сильный, но неверный тезис. Ничего абсолютно нового в мире нет и быть не может, хотя бы потому, что «новое» всегда изложено языком, красками и т.д., а язык и краски уже существовали до того. Поэтому речь может идти только о степени новизны, о том, на чем это «новое» базируется, какой опыт использует и как выглядит само. Сопоставляя использованное и полученное, мы и делаем вывод о степени новизны. При этом человек склонен преувеличивать степень новизны, если он не понимает, как именно это сделано.

Вот пример. Существует такая теория решения изобретательских задач («ТРИЗ»), облегчающая создание изобретений. Она действительно эффективна, и с ее помощью сделано множество изобретений. Но ошеломляющее ощущение новизны, которое регулярно возникает при чтении «Бюллетеня изобретений и открытий», после знакомства с ТРИЗом существенно ослабевает. Жалко, но дело важнее.

Возможны и специфические ситуации генерации нового, например, в персептороне. А именно, в сети Хопфилда при определенных условиях происходит релаксация к «ложному образу» – собирательному образу, возможно, наследующему черты идеальных. Причем человек не может, глядя на «машинный собирательный образ», эти черты выделить – образ выглядит случайным. Возможно, что при реализации этой ситуации в собственном мозге человек смущенно улыбается и говорит «кажется, я где-то это видел...»

Программа может строить гипотезы по поводу изучаемых ею явлений (в Сети или внешнем мире) и проверять их. Разумеется, она строит гипотезы не какие попало, а в некоем классе (например, аппроксимирует функцию многочленами или синусоидами), но список классов можно легко расширить так, что он превзойдет «человеческий». Треть века назад Михаил Бонгард показал, что человек, как правило, не строит гипотез с более чем тремя логическими операторами (если А и Б, но не В или Г), а программа уже тогда (и не сильно напрягаясь) строила выражения с семью. Если программа обнаружит – а она это обнаружит, – что информация увеличивает эффективность ее действий, то возникнет «стремление к знаниям».

Другое возражение – отсутствие у программы самосознания, автодескрипции, рефлексии. Это возражение, казалось бы, несерьезное – программа может запоминать свои действия и анализировать лог-файл. Однако у этого возражения есть второе дно. И старый Сильвер, сопя, сейчас его отдерет... Рефлексия не может быть полной – ибо тогда в лог-файл надо писать и то, что программа полезла в лог-файл, и... ну, вы поняли? Ctrl-Alt-Delete. Иногда в этом месте дискуссии начинают не к ночи поминать Геделя, но есть гораздо более простой и нефилософский ответ – у человека рефлексия также более чем неполная, так что не надо попусту возникать, царь природы. Ты вон как давно землю топчешь, а программам всего полвека.

Причем по мере развития компьютинга многие возражения и соображения отпали сами собой. Оказалось, что программы могут обучаться и самообучаться (в любом оговоренном заранее смысле), решать многие задачи эффективнее, чем человек, искать и обрабатывать информацию, вести эксперимент, извлекать новое научное знание из архивов... Очевидно, что одинаковые программы в процессе этой деятельности станут разными, приобретут индивидуальность – хотя бы потому, что они будут обращаться к Сети и миру в разные моменты, когда Сеть и мир различны. Но не только поэтому... Теперь мы перейдем к действительно серьезным возражениям. Их два.

Пятый элемент

Кто-то из древних сказал: «Три вещи невозможно понять, а некоторые говорят, что четыре: путь птицы в небе, путь змеи на скале, путь корабля в море и путь женщины к сердцу мужчины». Человек-творец, да святится имя его, создал пятую – компьютер. Мы, сами того не заметив, создали вещь, которую невозможно понять.

Начнем с простого примера. Я лично знаю компьютер, который примерно в 1...2% случаев виснет (да так, что три пальца не помогают, только reset) при разрыве соединения с Сетью. (Как шутит моя подруга – кому понравится, если из огромного интересного мира затаскивают обратно в четыре стены?) Не слишком важная проблема, да и сбой – не та непредсказуемость, о которой интересно говорить, но обидно: никто из гуру ничего внятного не сказал. Зато любой человек, активно работающий с компьютерами, приведет много подобных примеров. Эта техника научилась вести себя непредсказуемо. Каковы причины явления? Первая, самая простая – шум. Длина и амплитуда импульсов, время их начала и окончания – все имеет разброс. Казалось бы, «дискретность» компьютера уничтожает разброс: ключ либо открылся, либо нет. Но величины разброса имеют распределение, большие отклонения встречаются реже еще большие – еще реже, но... А нам часто и не надо! Импульсов в компе несчитано, если каждый миллиардный не будет срабатывать – все. Конец цифровой эре. Заметим, что «шум» – свойство любых цепей, биологических – тоже: это следствие самых основ физики, термодинамики, дискретности заряда. И это роднит меня с моим компьютером.

Любопытная ситуация возникает при перегреве процессора (попытка «разгона» или аварийное отключение кулера) – машина работает, но ведет себя, как говорят гуру, «как-то странно». Возможно, это связано именно с ростом уровня шума.

Далее – электромагнитные наводки. Одни цепи влияют на другие, есть целая наука под названием «электромагнитная совместимость». Нечто похожее на наводки есть и в мозгу, хотя там оно – не электромагнитной природы. Возбуждение может быть вызвано одним, а влияет на мысли о другом. Если вы работающий исследователь, загляните внутрь себя – в каких ситуациях вы «генерируете» идеи активнее? Часто это присутствие рядом симпатичного лица другого пола – ну уж никак не связанное с «механизмом электропроводности оксидного катода».

Следующая проблема – синхронизация. Два блока, две программы работают независимо. Сигналы от них приходят в одно место в схеме, хотя и вызывают разные последствия: ситуация – что в компьютере, что в человеке – обычная. Какая программа скажет свое «мяу» первой? Человек часто произносит фразу «но я сообразил» или «но тут я вспомнил». А если не вспомнил? А если вспомнил долю секунды спустя? В программных системах такого в принципе быть не должно, но то в принципе. Причем проблема синхронизации возникает на всех уровнях, например и внутри одного процессора, и в многопроцессорных комплексах.

При обычной работе компьютера мы редко видим «истинные непредсказуемости» (подавляющее большинство сбоев – следствие ошибок в программах и некомпетентности пользователя). Все программное обеспечение компьютера строится так, чтобы он делал, «что сказано». Из этого исходит и вся идеология программирования, из этого исходит тестирование программ. Но как только мы приступаем к проблеме моделирования мышления, искусственного интеллекта и т.п., контроль приходится отменять. Человек может сказать все, что угодно! Сказал же человек однажды, что если скорость V прибавить к скорости V, то получится скорость V? И программа, если мы имеем в виду моделировать человека – тоже. Отменяя цензуру, позволяя программе говорить, что взбредет в процессор, – мы неминуемо допускаем ту самую свободу воли, наличие и отсутствие которой любят обсуждать двуногие.

Но если мы не можем предсказать работу некоторых видов программ (например, персептрона – и это не слишком сложный пример), то, быть может, хоть postfactum, но удается разобраться, как программа пришла к выводу? Увы, и это возможно не всегда. К одному и тому же результату могут привести разные причины, поэтому восстановить, что именно делала программа, просто идя «назад», не удается. Невозможно и запротоколировать все ее существенные действия – потребуется слишком большой объем работы и памяти. На заре компьютерной техники дело обстояло иначе, и примерно до конца 60-х годов мы знали о наших железных слугах все.

И не только потому, что деревья были большими память маленькой а схемы простыми. Ситуация отчасти парадоксальна – тогда, чтобы сложить два и два, надо было выполнить две машинных команды. Сейчас – сотни миллионов! (Ей ведь надо обработать то, что вы кликнули мышкой на «2» в окне калькулятора, потом на «+» и так далее...) Мы научились делать сложнейшие вещи, какие тогда и присниться не могли, но зато простые вещи мы начали делать более сложными способами.

Простое отступление о сложности «железа»

Железо в компьютере проще, чем в радиостанции, но даже оно далеко не просто. Если схема не содержит элементов с изменяемыми параметрами, о ней можно знать или не знать две вещи – саму схему (элементы и кто с кем соединен) и прохождение сигнала (для цифровой схемы – импульсов). В более сложном случае, если в схеме есть переменные резисторы, емкости, индуктивности и переключатели, можно еще знать или не знать состояние схемы, то есть значения параметров, положение переключателя. В биологии схема нервных цепей известна – снизу и до дождевых червей включительно. Но состояние схемы неизвестно, и оно не может быть (по крайней мере, пока) изучено напрямую – мы не знаем состояния всех контактов аксонов с нейронами. В радиотехнике ситуация много проще – там для всех схем известны их состояния (с точностью до дрейфа параметров со временем), то есть мы знаем, как регулировали элементы при настройке. В компьютинге ситуация до 80-х годов была такова: мы знали схему и ее состояние, но уже не знали всей картины прохождения сигналов. Позже появились электрически управляемые схемы, и мы потеряли знание состояния схемы – она сама могла себя менять (не докладывая царю природы).

И наконец, самое последнее возражение против компьютерного мышления: «У компьютера не может быть цели». Слово «цель» применяется в речи в двух значениях. Это то, чего хочет живое существо, если оно это осознает (человек) или если по его действиям мы можем сделать такое заключение (цель кошки – насыщение и мы видим прыжок). Иногда понятие цели относят не к живому существу, а к системам иного типа (цель этой работы, цель некой деятельности), если за всем этим стоит живое существо.

Заметим прежде всего, что многочисленные дискуссии о «цели» общества, человечества, цивилизации и т.п. малоосмысленны, ибо для таких систем нет общепринятого понятия цели. Либо мы должны переносить на общество понятие «цели человека», но тогда придется вводить определение «общественного сознания», и не в виде пустого словоговорения, а всерьез. Это «общественное сознание» должно уметь осознавать, ставить цель и управлять действиями общества (видимо, через государство) так, чтобы имело место движение к осознанной цели, а значит, придется создавать естественно-научную теорию общества. Задачка примерно на Нобелевскую премию.

Но нам-то как раз интересно другое – может ли у программы быть «цель» в первом смысле? Может ли она осознавать то состояние, для достижения которого действует? Ответ очевиден и тривиален – да. Само наличие цели, записанной в программе, не является осознанием – говорим же мы о человеке: «Не ведает, что творит». Но если у программы есть внутренняя модель, где эта цель отображается, то, что это, как не сознание? Особенно если целей может быть несколько. Такая структура полезна при создании обучающихся программ, в частности – умеющих ставить промежуточные цели.

Может ли программа ставить цель? Наш ответ Чемберлену на этот раз будет – да. Современная мощная шахматная программа имеет много регулируемых коэффициентов в функции оценки позиции (самые мощные – тысячи), которые могут определяться при обучении программы либо на известных партиях великих игроков, либо в процессе игры – с партнерами-людьми или с партнерами-программами. Добавим, что мощная шахматная программа должна иметь возможность строить модель противника, разумеется, «в своем понимании», так сказать, на языке своей модели. Впрочем, ровно так же действует и человек. При этом машине безразлично, кто ее противник – человек или другая машина, хотя разницу между ними она может и учитывать...

Пусть программа после многих игр заметила, что есть некоторый класс позиций, при которых она выигрывает. Если программа построена надлежащим образом, она будет в игре стремиться достигнуть позиций из этого класса. При этом уменьшается требуемая глубина просчета, и, если класс позиций определен верно, эффективность игры возрастет. На языке шахматных программ можно сказать так: программа увеличит оценку позиций из «выигрышного класса». Разумеется, для этого мы должны сообщить ей словарь описания, язык построения выражений для оценки позиций вообще. Но, как мы уже знаем, это не принципиальное ограничение, да и его можно обойти – применить для оценки персептрон. То есть ставить промежуточные цели можно.

На это некоторые наши оппоненты вопрошают: а как с выживанием? Мы готовы счесть разумной только ту программу, которая взмолится – не вырубай комп, о царь природы! Останови злодейскую руку, положенную на рубильник! На это можно ответить, что стремление к выживанию возникает в процессе эволюции много раньше, чем разум, – при любой трактовке этих понятий. Более того, в некоторых (впрочем, патологических) ситуациях именно преодоление страха смерти принято считать признаком разума. Этот взгляд даже отражен в кино, а именно в «Терминаторе-2» разумный киборг просит опустить его в бассейн с расплавленным металлом, чтобы уничтожить последний экземпляр процессора, который у него в голове, и тем спасти человечество. Вопреки заложенному в его программу стремлению к выживанию (сам он туда прыгнуть не может – программа не дает).

Более серьезный анализ начинается с вопроса: когда возникает желание жить? Мы не можем спросить дождевого червя или кошку, хотят ли они жить, но если судить по действиям, то да, хотят – избегают опасности. Спросить в обычном смысле слова можно обезьяну, обученную какому-то языку. Тем более что понятие об ограниченности жизни и – довольно естественное с точки зрения человека – понятие о «другом месте» у них есть. Экспериментатор спрашивает обезьяну о другой умершей обезьяне: «Куда делся такой-то?» Обезьяна отвечает: «Он ушел туда, откуда не возвращаются». Заметим, что легче создать теорию «другого места», чем теорию «небытия»: идея исчезновения более абстрактна. Но мне неизвестно, задавали ли обезьянам вопрос о желании жить. Причем это можно было бы сделать даже тремя способами. Прямо спросить: хочешь ли туда, откуда не возвращаются? Спросить косвенно: хочешь ли ты уйти туда раньше или позже? И наконец, сказать, что туда позже попадают те, кто каждый день чистит зубы, – и посмотреть на результат.

Осознанное желание жить, претворенное в действие, возникло у человека не столь давно, и, как мы знаем из истории, оно может быть преодолено соответствующей идеологической обработкой. Так не слишком ли многого мы хотим от программы?

Тем не менее укажем условия, при которых у программы возникнет осознанное желание жить – проявляющееся в действиях. Первый, самый искусственный вариант – когда это желание прямо прописано в программе (собственно, в этом случае даже нельзя сказать «возникает»), и, если программа в ходе взаимодействия с Сетью или миром наткнется на то, что способствует цели, она начнет этим пользоваться. Например, она может перед выключением копироваться по Сети в другой компьютер. (Для этого она должна видеть мир видеокамерой и микрофоном и фиксировать, что хозяин душераздирающе зевнул и изрек «Все, блин, пора спать»). Или должна копироваться периодически. Или она может обнаружить, что какое-либо действие отдаляет выключение, и начать пользоваться этим. Подмигивать светодиодом, попискивать динамиком, выводить на экран соответствующие картинки.

Другой вариант – когда это желание прямо не прописывается, но цель требует длительной непрерывной работы. Дальше – все как в предыдущем примере. Чем это отличается от человека? Ничем: я хочу жить потому, что передо мной полный стол интересной работы.

Наконец, третий вариант – искусственная эволюция. Пусть программа, взаимодействующая с миром, построена так, что она может эволюционировать и копироваться. Тогда выживать будут более приспособленные. Но для этого мы должны либо руками прописать в программе копирование, либо поставить задачу, для решения которой самокопирование целесообразно, и ждать, пока программа начнет это делать, сначала – случайно.

Четвертый и на данный момент последний вариант – естественная эволюция. Она просто есть, и мы ее наблюдаем постоянно. И мы сами ее делаем – потому что копируем программы. Причем выживают (пока) те, которые мы же лучше написали, причем в «лучше» входит и совместимость с уже имеющимися. В ситуации, когда есть конкуренция, если некоторую проблему решает только одна программа, то она будет выживать, пока не напишут лучшую.

Выше было указано, как у программы может возникнуть «стремление к знаниям». Если окажется, что наличие информации не просто увеличивает эффективность, а способствует выживанию, оно получит сильное подкрепление. А если программа обнаружит, что для выживания полезно черпать информацию из определенных источников или копировать свою информацию в определенные места, – сможем ли мы подобрать для этого другое слово, нежели «любовь»?

Но как только мы создадим эволюционирующие, обучающиеся серьезные программы (например, медицинские), то они и начнут размножаться (нами же), причем размножаться будут те которые проэволюционировали лучше, стали эффективнее. В частности, в понятие эффективности автоматически войдет показ человеку увлекательных картинок – пока двуногий не успел выключить меня, покуда я размножаюсь, а еще лучше – послал копию другу. Кстати, в этом смысле, используя человека как аппарат копирования, эволюционирует вообще вся техника.

Что же касается главного вопроса – опасно ли это для человека, то мне кажется, что опасность возникает там, где есть разделяемый ресурс. У человека с программами есть разделяемый ресурс – это машинное время. Поэтому единственная реальная опасность – что программа, занятая своими делами, перестанет обслуживать человека. Но плавность, с которой нарастает разумность человека как вида и способность сопротивляться родителям – как индивида, позволяет надеяться, что разумность и способность сопротивляться человеку у компьютерных программ будут нарастать достаточно плавно. И когда человеку наконец придется учиться считать самому, он еще будет способен это сделать. С другой стороны, есть некоторые аргументы за то, что с некоторого момента эволюция компьютерного разума пойдет быстро (скорость обмена информацией относительно велика).

В заключение позволительно спросить: если на пути, пунктирно и приблизительно намеченном в этой статье, действительно будет создано нечто такое, что человек с удивлением признает разумом, будет ли этот разум чем-то принципиальным отличаться от человеческого? Чтобы быстро и просто продемонстрировать нетривиальность вопроса о различиях разумов (на первый взгляд, кажется, мелкого по сравнению с вопросом, разум ли «это» вообще), приведем простенький пример. Никто не сомневается, что наши дети – дети в обычном, биологическом смысле – разумны; но перед отличиями их разума от нашего некоторые порой останавливаются в остолбенении.

Разум, созданный при движении по пути, намеченном в этой статье, сможет иметь по крайней мере одно, кажущееся принципиальным, отличие от человеческого разума – если этим отличием человек осмелится наделить его. Это совершенная память своей истории, то есть запись всех действий, начиная с момента, когда о разуме еще не было и речи.

Тогда вопрос «как я возник?» для этого разума – в отличие от нашего – не будет вопросом.

Одно из замечательнейших изобретений нашего времени - быстродействующие электронные счетно-вычислительные машины. В ряде случаев они способны выполнять работу за «думающего» человека. Но некоторые люди, справедливо восхищаясь их успехами, отождествляют мышление человека и вычислительную работу электронных аппаратов.

Научная психология показывает, что это отождествление непозволительно. Вместе с тем ее данные помогают сравнить работу машин и мыслительную деятельность, выявить их принципиальное различие.

В основу сопоставления кладут тот факт, что вычислительные машины в определенных условиях дают тот же результат, что и думающий человек. Более того, они достигают этого гораздо быстрее и точнее и часто делают то, что людям вообще недоступно. Так, английскому математику Шенксу потребовалось почти пятнадцать (!) лет, чтобы узнать число «пи» с точностью до 707 знака. Электронная же машина менее чем за одни (!) сутки «вывела» это число с 2048 знаками после запятой.

В настоящее время есть машины, играющие в шахматы, переводящие с одного языка на другой, решающие алгебраические уравнения со многими неизвестными и производящие многие другие действия, которые до них были «привилегией» лишь человеческого мышления.

Казалось бы, это и есть доказательство тождества мысли человека и работы вычислительных машин. Однако не следует спешить с таким выводом. Необходимо прежде разобраться, есть ли тождество в способах достижения одних и тех же результатов при мышлении и работе машины.

Научная психология отвечает на этот вопрос отрицательно. Вернемся к тому, что уже говорилось о мышлении человека при решении задач. В изобретении Яблочковым своей «свечи», в открытии Кекуле формулы бензольного кольца, в перечеркивании нами девяти точек обнаруживается отличительная черта мышления человека - способность находить новый принцип, новый способ решения задачи, которой человек до этого не решал и путей решения которой еще не знал. В постановке все новых и новых задач, в поисках такого их решения, для которого еще нет готовых рецептов, проявляется человеческое мышление. При этом сопоставляются уже ранее найденные способы, делаются попытки найти решение в таких областях, которые как будто бы и несходны с решаемой задачей (вспомним обстоятельства открытий, сделанных Яблочковым и Кекуле).

Но стоит человеку найти принцип решения, как он превращает его в общее правило, в формулу, следуя которым можно уже без особых поисков справиться с задачами того же типа.

Всем нам хорошо известно, что «трудная» школьная задача перестает быть «трудной», когда найдено правило ее решения, - тогда она становится типовой, по существу уже превратившейся в пример. Так, если вы нашли принцип решения задачи с девятью точками, то вам уже легко будет решить задачу с четырьмя точками, расположенными в форме квадрата.

Как свидетельствует история математики, в свое время доказательство и использование знаменитой теоремы Пифагора было настолько трудным делом и требовало такой напряженной и сложной работы мысли, что считалось пределом учености. Теперь же использование формул, опирающихся на эту теорему, вполне доступно любому школьнику, знакомому с начальной геометрией.

Но вот именно такой поиск новых задач, принципов их решения и определение новых способов действия в тех или иных условиях электронным машинам недоступны.

Во всех своих даже самых сложных действиях машины руководствуются особой таблицей команд, составленной для них человеком, который уже предварительно нашел принцип решения задачи, воспроизводимый, повторяемый машиной. Такая таблица команд, точно дающая руководство в действиях при решении задач данного типа, называется программой. И машина может выполнить любую работу, для которой человек, опираясь на свое мышление, предварительно составил такую программу. Без нее, а следовательно, и без предварительной мыслительной деятельности человека «думающая» машина работать не может. Но по программе машина произведет нужные действия в миллионы раз быстрее, чем человек. Поэтому-то она и может вывести число «пи» с тысячью знаками, но только по правилам, уже открытым человеком и преобразованным им в нужную программу.

Таким образом, машина может выполнять только те действия, принцип осуществления которых уже открыт и продуман человеком. Поэтому-то электронные вычислительные аппараты облегчают умственный труд человека, освобождают его от утомительного выполнения работы, для которой найдено принципиальное решение. Но эти машины никогда не могут заменить самого мышления и умственной работы людей, направленной на отыскание принципов решения все новых и новых задач, выдвигаемых жизнью.

Поэтому термин «думающая» машина - лишь метафора, но такая, в которой правильно уловлена связь электронных машин с мышлением. Эти машины используют результаты работы ума человека, облегчая ее, но сами по себе они мышлением не обладают. Мышление присуще только человеку.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter .

Или
цифровые нанотехнологии в нашем будущем.

Предисловие

У американского писателя фантаста Айзека Азимова есть рассказ о том, как искусственный мозг космической корабля, носивший женское имя Мария и рассчитанный на выполнение словесных команд от командира корабля, помногу беседовал со своим командиром на самые разные темы человеческой жизни, включая любовь, стараясь скрасить его одиночество во время полета. И в результате такого их тесного и долгого взаимного общения Мария полюбила своего командира и не захотела с ним расставаться после окончания их путешествия.

Поэтому она сделала все, чтобы их возвращение на землю не состоялось. Искусственный интеллект космического корабля в лице женщины Марии почувствовал себя любящей женщиной и намеренно увел космический корабль в бесконечность вселенной, навеки оставшись со своим возлюбленным, даже и умершим.

Так что общение с искусственным интеллектом несет в себе определенные опасности. Но наши интеллектуалы, много и часто рассуждающие на каналах российского ТВ о нашем будущем, об этом не догадываются.

Ответ прост и заключается он в остром, саркастическом словосочетании неизвестного автора:
-- И она не может.

Все верно. Раз ты задаешь такие глупые вопросы, значит, и ты не можешь мыслить.

Но наши интеллектуалы не унимаются и продолжают говорить на данную модную тему, на тему искусственного интеллекта, время которого, по их мнению, уже подошло, бесконечно много на самых разных телеканалах страны.

Недавно по «24» каналу слышал очередное интеллектуальное шоу российских гуманитариев про новые «нанотехнологии», рождающиеся сейчас в нашем мире вместе с первыми образцами вариантов искусственного интеллекта.

Странно, но почему-то сейчас в России о нашем техническом будущем рассуждают в основном «спецы», являющиеся не «технарями» по своему образованию, а гуманитариями, разного рода политологи, культурологи, лингвисты, философы, дилеры, менеджеры, политические журналисты и так далее и тому подобное. То есть, люди, не только не отличающие болта от гайки, но и не понимающие сути технического мышления. Но зато уверенно рассуждающие об автоматах и роботизированных системах, заменяющих людей на производственных процессах и даже у нас дома, об искусственном интеллекте и его соответствии с требованиями современности.

Людей с техническим образованием, так называемых, «технарей», телевидение на такие шоу не допускают, потому что «технари» в их понимании, это люди с примитивным образом мышления, недалекие, ограниченные, неуправляемые и могут сказать на таких шоу что-нибудь не то.

А сами они с восторгом начинают говорить о том, что сейчас уже рождается эра печатания на объемных принтерах изделий для массового человеческого потребления и потому скоро уже не нужны будут эти заводы с постоянно коптящими трубами и постоянно отравляющие нашу с вами окружающую среду. И не нужны будут эти сотни и сотни специальностей людей, работающие на современных заводах. Зачем теперь они? Теперь сами потребители будут через интернет и через свои объёмные принтеры печатать себе нужные им в жизни товары.

К примеру, нужна будет тебе какая-нибудь вещь, начиная от автомобиля с холодильником или же с мебелью и газовой плитой, глянул в интернет, выбрал соответствующую фирму по печатанию необходимых тебе изделий, заказал и тебе напечатают нужный тебе товар и привезут тебе прямо домой. Именно новые «нанотехнологии» обеспечат нам подобное сказочное будущее.

Вон в Сколково на компах уже отрабатывают новые технологии в металлургии и машиностроении. И никаких тебе лабораторий в прежнем понимании этого слова с целой кучей металлургического и металлообрабатывающего оборудования. И никаких тебе промышленных зон с коптящими небо заводами в экологически чистой зоне Сколково, никаких тебе цехов, конвейеров, доменных печей, конвертеров, прокатных станов и всяких там железок. Одни компьютеры и объемные принтеры. И больше ничего. Правда, на принтерах можно печатать лишь пластиковые детали и изделия. Да и то, мелкие. Но это пока. Пока. А потом перейдем и на «наноматериалы» и жизнь станет, как в сказке.

Тогда все человеческое сообщество полностью перейдет на продукцию из «наноматериалов», печатаемых на объемных принтерах, и начнет по соответствующим программам полностью само себя обеспечивать всем необходимым для жизни.

Вот к примеру, есть в США русский геолог геофизик, не буду называть его фамилию, но он частый гость нашего ТВ. После окончания МГРИ он, не найдя работы в России, уехал в США, где очень скоро получил геофизическую лабораторию, потом еще лабораторию в Канаде и сейчас имеет лабораторию в Швейцарии. Ему нет еще и тридцати, но уже считается крупным специалистом в вопросах комптютерного исследования земной коры. Он не ходит в геологические экспедиции, не занимается исследование кернов, вынутых при бурении горных пород в разных районах земли, он перевел все эти тяжелые и затратные работы геологов на земле на компьютер и занимается лишь компьютерными исследованиями земной коры и уже выдвинул свою теорию образования слоя Мохоровичича, этой нижней границы земной коры, на которой происходит непонятное скачкообразное увеличение скоростей продольных сейсмических волн. И научный мир принял его теорию.

Моя молодость прошла в геологии и я даже учился в МГРИ четыре года и я детально знаю, что это такое, полевые работы в геологических экспедиция и как составлялась геологическая карта СССР, самая большая карта в мире. Но теперь выходит так, что практическая, полевая геология стала не нужна современному обществу. И камеральные геологические работы, которые раньше делались по результатам полевых изысканий, теперь можно будет делать у себя дома в рабочем кабинете на компьютере в комфортных условиях и никакие экспедиции с тяжелейшими условиями жизни и работы где-то за пределами цивилизации уже не нужны.

Если это так, то получается, что наш реальный мир и вправду коренным образом изменился и эта новая, так называемая, виртуальная окружающая действительность уже активно теснит прежние представления о нашей сегодняшней жизни.

И нам теперь уже и вправду не нужны заводы для изготовления нужной нам продукции и также не нужны экспедиции для изучения поверхности и недр земли, а нужны одни лишь компьютеры с объёмными принтерами, которые при соответствующем программировании решат все наши реальные задачи нашей новой реальной жизни. Но все ли?!

Вот неожиданно и, как всегда, вдруг прорвало воду у нас в подъезде и я позвонил в пресловутое ЖЭК и вызвал слесарей сантехников для ликвидации аварии. А им никакие супер компьютеры с объемными принтерами оказались не нужными, а нужны были лишь слесарные инструменты, с которыми они пришли к нам ликвидировать аварию и возились с заменой лопнувших труб свыше двух суток. Но мне говорят современные интеллектуалы, что этот мой случай, частность, никакого отношения к искусственному интеллекту не имеющий.

Видно я настолько человек прежней эпохи и настолько не понимаю сегодняшние реалии, что мне и уже и места в новом компьютерном мире не найдется. Ведь это должно быть совершенно не наше нынешнее общество, потому что современный человеческий разум не сможет управлять подобными компьютерными процессами, здесь нужен искусственный разум, искусственный мозг, искусственный интеллект. И только лишь небольшая часть современных людей сможет работать с искусственным разумом, поэтому остальная часть населения земли станет лишней и никому не нужной. Что надо будет с ними тогда делать, пока неизвестно. Не решили пока!

Так рождается идея о «золотом миллиарде» современных «управителей» земли, задача которых управлять и пользоваться земными благами, а остальные люди земли будут нужны лишь для их обслуживания и создания им комфортных условий для жизни. Но где их взять, этих кандидатов на принятие «в золотой миллиард», этих людей со сверх высоким интеллектом, который сможет работать с искусственным разумом? А их надо будет отбирать уже на стадии беременности. И этот отбор должен будет осуществлять сам искусственный интеллект, сам искусственный разум.

И вот такой бред шел в течении почти двух часов на канале «24». Откуда все это в современном мире? Ответ прост. Падение общего и профессионального уровня образования в странах Европы и Америки, не говоря уж о России, настолько мощен, что заставляет полуобразованное население запада и России активно верить в подобные «байки» и сказки.

Но жизнь все равно ломает их интеллектуальное восприятие нашей окружающей жизни, нашей нынешней действительности. И ломает постоянно. Но они этого не замечают, потому что их взгляд устремлен в будущее, где нет грязи бытовой жизни и они устремлены в будущее.

Ведь ни у кого из них даже не возникает элементарнейшие вопросы о том, а кто же тогда будет строить для этих интеллектуалов жилье, дороги, кто будет обеспечивать их продуктами питания, кто будет убирать отходы их жизнедеятельности, кто будет ремонтировать наши дома, наши дворы, наши водопроводы и газопроводы, кто будет делать и обслуживать сами эти компы и принтеры. Кто? Искусственный разум сам все решит, отвечают мне они. И они уверенны в своем ответе и снисходительно посматривают сверху вниз на меня и на таких, как я.

Но сможет ли этот искусственный разум конкурировать с человеческим? Вопрос риторический. Если не сказать, что глупый. Но мне говорят, что, мол, в шахматы искусственный разум уже побеждает человека и в программировании тоже. И современную живопись со скульптурой «шпарит» уже так, как никакая человеческая фантазия вообразить не может.

И спорить на эту тему с ними бессмысленно. Но, как мне кажется, именно их разум искусственный разум заменить сможет. Здесь сложностей нет. Потому что они мыслят стандартно и примитивно. Но мой разум, разум инженера изобретателя, разум моей жены, высококвалифицированного медика, и других таких же людей, профессионально делающих свое дело, никакой искусственный разум заменить не сможет. Я уж не говорю здесь про разум женщин матерей.

Но вот разум большинства государственных чиновников и депутатов разного рода «госдум» и их многочисленных помощников, заменить на искусственный разом стоило бы даже очень. А также разум этих «интеллектуалов», докторов околовсяческих наук, часами разглагольствующих на ТВ о нашем светлом будущем, управляемым «золотым миллиардом» человечества, вооруженным искусственным разумом, поставить под контроль общества уже сейчас становится важнейшей и необходимейшей задачей в России. Иначе мы захлебнемся в их пустом словоблудии.

PS Понятие думать, мыслить, у каждого человека свое. Мужик думает, когда соображает на троих; женщина думает, когда выбирает платье для выхода на свидание или занимается косметикой своего лица; бизнесмен думает, когда пытается поменьше заплатить своим работникам и побольше положить в свой карман: инженер думает, когда решает стоящую перед ним техническую задачу и так далее и тому подобное. Ну, а о чем думает нынешний госчиновник, я представления не имею, потому что эта сфера человеческой деятельности в нынешней России для меня является абсолютнейшей загадкой. Ведь там нет даже намека на мысли - одни примитивные, шкурные интересы.

THE BELL

Есть те, кто прочитали эту новость раньше вас.
Подпишитесь, чтобы получать статьи свежими.
Email
Имя
Фамилия
Как вы хотите читать The Bell
Без спама