Прокачиваем ораторское искусство, мышление и речь

Пытаются приблизиться к ней. Но что представляет собой искусственный интеллект с точки зрения философа? Т&P публикуют статью доктора философских наук Сергея Голенкова, который с помощью Канта и Делеза ставит под сомнение саму возможность создания мыслящей машины.

Проблема сознания заключается в парадоксальной ситуации: мы, разумные существа, обладаем сознанием, оно у нас есть, но мы не знаем что такое сознание. Мамардашвили, определяя эту ситуацию, писал: «Сознание - это парадоксальность, к которой невозможно привыкнуть». Раскрывая особенность парадоксальности сознания, он указывал на две трудности в изучении сознания. Первая состоит в том, что само понятие «сознание» является предельным философским понятием, таким как понятие «бытие». А такого рода понятия не поддаются классическому родо-видовому определению. Другая трудность проистекает из того, что сознание «весьма странное явление, которое есть и которое в то же время нельзя ухватить, представить как вещь». Однако, есть еще одно обстоятельство, делающее проблему сознания особенно сложной. Дело в том, что само сознание всегда экранировано содержанием сознания. Поясню подробнее суть этой трудности.

В свое время Кант обсуждая вопрос о природе единства содержания мысли, писал в «Критике чистого разума», что условием единства содержания нашей мысли является «трансцендентальное единство апперцепции». О чем у него здесь идет речь. Вот в руке у меня лист бумаги. Эту ситуацию содержательно можно выразить следующим образом: «сейчас я держу в руке белый лист бумаги». Это словесное выражение будем считать содержанием мысли. В этой мысли соединены содержательно различные элементы. В ней присутствует представление о времени (слово «сейчас»), представление обо мне («я»), об одном из органов моего тела («рука»), представление о некой вещи («лист бумаги»), представление о свойстве этой вещи («белый»), представление о пространственном расположении листа бумаги относительно моего тела («в руке»). Кроме выраженных представлений, в этой мысли имплицитно содержаться, то есть словесно не выражены, и другие элементы ситуации, например, качество листа бумаги. Очевидно, что это все качественно (и потому содержательно) разные представления. Одни источником имеют тактильные ощущения (качество бумаги: гладкая/шероховатая), другие моторно-двигательные (держу в руке), третьи зрительные (белый цвет листа) и так далее.

Кант задает вопрос, что позволяет разным представлениям, из которых состоит всякая мысль, образовывать целое единство этой мысли? И он отвечает - трансцендентальное единство апперцепций. Это означает, что все данное в наглядном представлении многообразие объединяется при помощи трансцендентальной апперцепции в понятие объекта. Кант говорит, что это объединение есть акт, который сопровождает всякую содержательную мысль и может словесно выражен так: «Я мыслю». Иными словами, чтобы мысль о том, что сейчас я держу в руке белый лист бумаги, не распадалась на различные по содержанию представления, а была одной мыслью, эта мысль должна всегда сопровождаться актом мышления «Я мыслю».

Это «Я мыслю» и есть действие сознания в нас. Но трудность познания этого акта состоит в том, что акт «Я мыслю» всегда экранирован содержанием сознания «сейчас я держу в руке белый лист бумаги». И даже если мы обратим внимание на сам этот акт, то он становится содержательной мыслью, которая, чтобы быть единой, сама должна сопровождаться актом «Я мыслю». В этом случае мы имеем следующее словесное выражение «Я мыслю, что Я мыслю», где второе «Я мыслю» уже содержание мысли, для которой условием является акт первого «Я мыслю». Несмотря на то, что оба эти выражения одинаково составлены из одинаковых слов, это, несомненно, две разные «вещи». Первая выражает акт мысли, вторая - ее содержание. И для их познания нужны разные методы и инструменты. Здесь мы попадаем в ситуацию, которая хорошо известна в физике элементарных частиц (квантовой механике), когда невозможно одновременно, одними и теми же приборами, одними и теми же методами описать положение элементарной частицы и ее импульс (то есть указать вектор ее движения и скорость). Либо мы знаем, где находиться частица, но не знаем ее скорости в данный момент и направление движения, либо знаем вектор и скорость, но не знаем ее место положения.

Акт «Я мыслю» представляет собой некое существование, соотнесенное с сознанием, которое Мамардашвили и Пятигорским было названо «состояние сознания». Термином «состояние сознания» они обозначали по преимуществу независимое от любого мыслительного содержания «состояние нашего психофизиологического механизма, соотнесенного с сознанием». Замечу, что состояние, описываемое термином «мыслю» («Я мыслю»), принадлежат к тому же классу, что состояния «наблюдаю», «вспоминаю», «воспринимаю», «воображаю» и тому подобное. Это все состояния, так или иначе, связанны с сознанием, сознание в них присутствует.

Присмотримся теперь внимательнее к этому классу состояний сознания. В качестве примера рассмотрим состояние сознания «Я наблюдаю стол». Что мы в нем можем обнаружить? Прежде всего, то, что оно по своему составу не однородно. Есть элемент в этом состоянии, который связан с внешне данной вещью, данность которой определяет содержание нашего состояния. То, что мы наблюдаем (мыслим, вспоминаем и так далее) - стол. В акте наблюдения то, что обозначено термином «стол» составляет содержание этого акта, этого состояния сознания. И это содержание наблюдения (содержание состояния сознания) не определено внешней вещью. Стол, как наблюдаемое мною тело, не задает содержание того, что именно я наблюдаю.

Отсюда следует, что содержание наблюдения тела как явления осознаваемого, определяется не самим этим телом, а полностью задается сознанием. Особо подчеркну, не существование тела задается сознанием, а содержание наблюдения тела. Это означает, что в состоянии сознания «Я наблюдаю стол», стол выступает содержательным элементом наблюдения и, стало быть, находится «в» сознании как содержание наблюдения. Следуя традиции после Гуссерля, наблюдаемый стол является интенциональным предметом. Интенциональный предмет, в нашем случае «стол», составляет содержание сознания, он коррелятивен с реально существующим столом, но задан сознанием.

Обратим внимание на то, что пребывание в состоянии «Я наблюдаю стол» содержит в себе два «элемента»: реальный стол и «интенциональный» стол. А между ними зазор. И этот зазор непроходим для мысли, точнее, он не может быть преодолен интеллектуальными средствами, так как в него включены элементы, не принадлежащие мышлению. Какие это элементы? Мамардашвили и Пятигорский в своей работе называли один такой элемент - это «наш психофизиологический механизм». Очевидно, что без него невозможно состояние «Я наблюдаю стол». Укажу еще на ряд таких элементов. Состояние наблюдения (восприятия, воображения, мышления и так далее) - это состояние нашего существования, бытийное состояния. Специфика нашего существования - сознательного существования - в философской традиции после Хайдеггера определяется термином «экзистирование». Экзистирование - это существование способом понимания собственного существования. В чем специфика такого существования, «существования пониманием»? Что такое понимание?

Понимание можно рассмотреть как «внимание», «внятие», «принятие», «впускание», «ассимиляцию» некоего сущего в себя. Когда я понимаю некое сущее, например, когда я понимаю (или не понимаю) предмет своего наблюдения как стол, то тем самым я принимаю (или не принимаю) это сущее как/в содержание моего состояния. Иначе говоря, понимание здесь выступает своеобразным испытанием как модусом моего бытия, экзистирования. И этот модус по природе своей амбивалентен. С одной стороны, понимая (внимая, принимая и так далее) сущее, я испытываю себя на способность понять сущее, а, с другой - я испытываю само сущее на его истину, выведывая ее у сущего. Понимание предстает в этом случае в виде проверки на способность быть и себя, и сущего. Иными словами, в состоянии сознания в качестве необходимого элемента включены не только интеллектуальные процедуры, но и мои бытийные (и онтологические, и онтические) характеристики. В частности в понимании «участвует» такая структура как бытие-с-другим. Рассмотрим подробнее, каким образом эта бытийная структура определяет состояния сознания и его содержания.

В качестве примера такого влияния сошлюсь на анализ восприятия - а это состояние, как я уже отмечал выше, того же класса, что и наблюдение - в работе Жиля Делеза «Мишель Турнье и мир без Другого». В этой работе Делез показывает как другой в качестве элемента совместного бытия определяет мое восприятие. Прежде всего, отмечает Делез, другой оказывает организующее воздействие на мое поле восприятия предметов и идей. Это организующее воздействие проявляется в том, что узнаю или чувствую воспринимаемый предмет в качестве определенного предмета, то есть такого, который отличается от другого предмета. Я могу не знать и не понимать существа отличия одного предмета от другого. Я лишь фиксирую само отличие. Вот именно для восприятия отличия, границы другой и предоставляет мне возможность различения. Он выступает условием способности различения, разграничивания.

Рассмотрим этот момент подробнее. Разделим акт восприятие на последовательные шаги от начала до узнавания предмета: акт получения перцептивных ощущений от воспринимаемого предмета (выявление фигуры на фоне); акт «фокусирования» внимания на выделенном предмете (все остальные предметы сливаются в неразличимый фон); акт терминирования выделенного предмета, его словесное обозначение и акт интерпретации (то есть «узнавания» предмета), как акт включения значения (оно фиксировано термином) предмета в систему уже существующих значений (например, в систему языка). Таким образом, мы имеем четыре шага определения предмета в восприятии. Отвлечемся сейчас от того, что можно по-иному членить этот процесс. Здесь важно, что этот процесс имеет шаговую (или звеньевую, или этапную - или какую-нибудь еще) структуру. Важно подчеркнуть то обстоятельство, что между шагами, звеньями, этапами существуют зазоры. Они важны как раз тем, что в этих зазорах пребывает нечто, что, с одной стороны, не является структурным элементом восприятия, а с другой - без них восприятие не может быть реализовано. Другой как раз и выступает необходимым элементом восприятия. Поясню этот тезис.

Посмотрим на зазор, который находиться между актом сосредоточения внимания на предмете и актом называния предмета, наделения его именем. Для того чтобы этот переход состоялся необходимо, чтобы уже существовали слова, существовала речь, существовал язык, существовала культура называния, культура говорения. А все это возможно, только если существует другой. Более того, существование другого уже необходимо между первым и вторым шагом, чтобы состоялся процесс узнавания воспринятого предмета. Это Делез и имеет в виду, когда говорит, что другой выступает условием различения предметов и идей.

Фигуру другого в процессе восприятия нельзя интерпретировать «ни как объект в поле моего восприятия, ни как субъект меня воспринимающий» (хотя эмпирически, если другой человек находится в момент моего восприятия, он может быть такими объектом и субъектом). Так чем же в таком случае является другой? Делез пишет: «… Это прежде всего структура поля восприятия, без которой поле это в целом не функционировало бы так, как оно делает». Без этой структуры - структуры другого - восприятие не могло бы состояться. Эту структуру другого он называет «априорный Другой». Априорный, поскольку эта структура уже существует до всякого реального восприятия, выступая его условием. Функция этого априорного Другого (или структуры другого) состоит в том, чтобы выступать основанием других, которые будут осуществлять эту структуру в каждом конкретном поле восприятия. Иными словами, эта структура дает возможность состояться опыту конкретного восприятия. Поэтому эту структуру - структуру другого - Делез называет «структурой возможного». «Другой как структура, это выражение возможного мира».

Интересно посмотреть, что производит структура другого («априорный Другой» у Делеза) в таком состоянии сознания как восприятие. Главное следствие действия этой структуры, считает Делез, это разграничение моего сознания и его объекта. Поскольку другой вносит в мир различения, границы, кромки, переносы, которые обеспечивают появление предмета в поле восприятия, то этот предмет, в качестве воспринимаемого отделен от сознания и ему противостоит. Иначе говоря, возникают феномены «воспринимающий» (то есть сознание) и «воспринимаемый» (то есть предмет). До этого сознание и его объект были слиты в одно целое и их не существовало в качестве отдельных феноменов. Именно другой обеспечивает разграничение сознания и его объекта. Далее, становление разграничения сознания и его объекта есть одновременно возникновение пространства, так как возникают различные места - «здесь» и «там». Мое сознание (или «воспринимающий Я») занимает место «здесь», а воспринимаемый предмет занимает место «там». Наконец, появление другого превращает мой мир в прошлый мир, опрокидывает мое сознание в позицию «я был». Другой приносит с собой возможный мир и тем самым вносит в мир временные разграничения. Возникает время в своих феноменах прошлого, настоящего и будущего.

Упомяну еще один элемент, который находится в состоянии сознания и обеспечивает как само существование этого состояния, так и его содержание. В своей работе почти полувековой давности «Анализ сознания в работах Маркса» Мамардашвили показал, что сознание, по Марксу, есть «функция, атрибут социальных систем деятельности», и что содержания и формообразования сознания производятся «из переплетения и дифференциации связей системы (социальной деятельности - С.Г.), а не из простого отображения объекта в восприятии субъекта». Иными словами, содержания сознания (и мышления, как феномена сознания) являются производными от системы социальной деятельности человека. Таким образом, состояния сознания включают в себя как необходимый элемент социальную составляющую индивидуального бытия, то есть ту систему общественных связей, в которую включен индивид как социальный субъект. Элементы, которые были рассмотрены - зазор между реальной вещью и интенциональным предметом, социальная система, структура другого в работе сознания (и мышления) - свидетельствуют о неконтинуальности сознания (мышления).

Зазор, который содержит в себе неинтеллектуальные компоненты не может быть преодолен за счет работы мысли. Он преодолевается лишь индивидуальным усилием быть - испытанием бытия/бытием - как актом не интеллектуальным, а экзистенциальным. Иначе говоря, «работа» мысли требует в качестве необходимых условий жизненные (физиологические, психические, социальные и так далее), а не только интеллектуальные элементы. Это обстоятельство и позволяет поставить под сомнение попытки создания искусственного интеллекта.

Читайте в Bookmate:

Искусственный интеллект (ИИ) - тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства. Не так давно президент РФ Владимир Путин посетил офис «Яндекса» в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важный вопрос для обсуждения, но и, наверное, один из самых значимых в контексте будущего.

Что такое искусственный интеллект и чего на самом деле боятся люди, рассказал «Снег. TV» специалист по методам машинного обучения Сергей Марков.

Как говорил Джон Маккарти, изобретатель термина «искусственный интеллект» в 1956 году, «как только он заработал, никто больше не называет его ИИ». ИИ уже вовсю реальность: калькуляторы, Siri, самоуправляемые автомобили и т. д., а в него все равно не верят. Почему так происходит, что люди отрицают существование ИИ?

Главным образом по причине терминологической путаницы, так как разные люди вкладывают в понятие «искусственный интеллект» совершенно разный смысл.

В науке искусственным интеллектом называют систему, предназначенную для автоматизации решения интеллектуальных задач. В свою очередь, под «интеллектуальной задачей» понимают такую задачу, которую люди решают при помощи своего, естественного интеллекта.

Легко заметить, что такое определение искусственного интеллекта чрезвычайно широко - под него попадает даже обычный калькулятор, т. к. арифметические задачи по сути тоже интеллектуальные, человек решает их при помощи своего интеллекта.

Поэтому внутри понятия «искусственный интеллект» была проведена важная граница, отличающая прикладной или, как еще говорят, слабый искусственный интеллект, предназначенный для решения какой-либо одной интеллектуальной задачи или небольшого их множества, от гипотетического сильного ИИ, также называемого универсальным искусственным интеллектом (англ. - artificial general intelligence).


Такая система, когда она будет создана, будет способна решать неограниченно широкий круг интеллектуальных задач, подобно интеллекту человека. С этой точки зрения калькулятор, который способен считать куда быстрее человека, или программа, выигрывающая у человека в шахматы, - это прикладной ИИ, гипотетический же сверхразум будущего - сильный ИИ.

Когда читаешь про разные открытия и разработки в области ИИ, понимаешь, что всё в основном происходит в США или Азии. А как обстоят дела в России? Есть у нас какие-то наработки?

Область компьютерных наук в наши дни интернациональна, многие наши специалисты работают над созданием и совершенствованием различных моделей машинного обучения в составе как российских, так и международных команд. У нас традиционно сильная математическая и алгоритмическая школа, созданы исследовательские центры мирового уровня как в ведущих вузах, так и в некоторых частных компаниях.

Но давайте говорить начистоту - бюджеты, выделяемые в нашей стране на науку и образование, не идут ни в какое сравнение с научными бюджетами наиболее развитых стран. Доходы бюджета РФ в 2016 году составили около 200 миллиардов долларов США, в то время, как только на оборону США тратят сумму в три раза большую, чем весь российский бюджет.

Весь бюджет российской науки сопоставим с бюджетом одного лишь вуза из Лиги плюща. В безденежные 90-е страну покинули многие ведущие специалисты, была нарушена преемственность ряда научных школ. Также было практически утрачено собственное производство электроники.

В то время как мировые лидеры ИТ ведут гонку в создании специализированных процессоров для обучения нейронных сетей, нам остается лишь сфера разработки алгоритмов и программного обеспечения. Впрочем, и в этой области нами были достигнуты весьма впечатляющие успехи.

Например, команда под руководством Артема Оганова создала систему USPEX, способную предсказывать кристаллические структуры химических соединений, что привело к настоящей революции в современной химии.

Команда Владимира Махнычева и Виктора Захарова с ВМК МГУ при помощи созданной ими системы, а также суперкомпьютеров «Ломоносов» и IBM Blue Gene/P впервые смогла рассчитать 7-фигурные шахматные окончания.

Нейронные сети «Яндекса» распознают и синтезируют речь, генерируют музыку в стиле «Гражданской обороны» и композитора Скрябина. Сильная команда специалистов по ИИ и машинному обучению создана и в Сбербанке.

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение - как быстро они останутся без работы. Все действительно так плохо?



© Marcel Oosterwijk/flickr.com

И да и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции, практически уничтожившим многие профессии (в основном связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчетах.

В XV-XVIII веках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла, по разным оценкам, от 7 до 30% своего населения. Властная элита того времени была всерьез озабочена тем, куда девать лишних людей. Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке. В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность все-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, - такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). - Это приведет к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационным технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны. Именно поэтому о том, как трудоустроить тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас, сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу, рассказал «Снег.TV» специалист по машинному обучению Сергей Марков.

Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? – сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения: машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.


Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведет переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Правда, пока что производственная сфера, связанная с ИИ, скорее создает рабочие места - нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент «электроовцы» определенно начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернется куда более катастрофичными последствиями.

Мы сможем когда-нибудь полностью довериться роботам (ИИ) или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолет - всё это когда-то было непривычным и многим казалось опасным. Да во многом опасным и было - техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле - наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живет злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд, будущее скорее за синтетическими системами - то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребенок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все, по сути дела, «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например Стивен Хокинг, Билл Гейтс или тот же Илон Маск, начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией. Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьез пугаться этих заявлений. Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.


На другой чаше весов высказывания таких людей, как, например, Эндрю Ын - американский ученый в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu.

Ын, говоря о проблеме безопасности ИИ, сравнивает ее с проблемой перенаселения Марса - конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнесся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», - заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе - Маск хочет застолбить эту тему и в идеале получить от государства средства для ее разработки.

Неужели всё так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит еще много работы.

Одна из любимых тем у меня и самых любознательных учеников - это смысловая разница между схожими, а то и одинаковыми, с первого взгляда, словами и выражениями.

Очень часто иностранцы, уже довольно хорошо владея русским языком, "прокалываются" на использовании слов, которые кажутся типичными синонимами, но на самом деле имеют разный смысл, особенно в контексте. Один из самых распространенных случаев - использование слова "почему" вместо "зачем". Если вы совершаете такие ошибки, не переживайте, это более чем естественно, ведь вне контекста смысл у этих слов примерно одинаковый и несет ту же смысловую нагрузку, что и английское слово "why", которое используется и в смысле "почему" и в смысле "зачем", и даже в смысле "а что".

Почему ты сегодня такой грустный? - Why are you so sad today?
Зачем мы пришли в это кошмарное место? - Why we have come to this terrible place?

Ты замужем? - Are you married?
Нет. А что? - No. Why?

Поскольку студенты, которые только начинают знакомиться с русским языком, часто калькируют слово в контекст в случайном из его словарных значений, то выходит смысловая путаница. Представьте ситуацию. Я хочу отправить вам видеоурок, но не знаю, сможете ли вы его посмотреть, есть ли у вас для этого техническая возможность. Тогда я решаю задать вопрос, и происходит следующий диалог:


- Да. Почему?

- У вас есть видеоплеер на компьютере?
- Да. А почему?

В первом случае вы явно хотели сказать "Да. А что?", а во втором "Да. А зачем?"

Я спрашиваю у вас, установлен ли на вашем компьютере видеоплеер, и вам становится интересно, зачем он может понадобиться, но в связи с использованием слова "почему", смысл встречного вопроса искажается. Точнее, звучит вопрос совершенно неестественно. Слово "почему" в данном случае использовалось вместо слова "зачем", но по смыслу оно его не заменило.

Как же понять, в каком случае мы используем слово "зачем", а в каких "почему"? Давайте разбираться.

Перед тем, как задать вопрос, необходимо понять, что мы имеем в виду: цель или причину действия.

Вопрос "зачем" можно заменить на следующие вопросы: "с какой целью?", "для какой цели?", "для чего?"

Вопрос "почему" можно заменить на следующие вопросы: "что к этому привело?", "что вас заставило это сделать/так подумать?"

Стало быть, когда во время нашего короткого диалога вы хотите выяснить, зачем вам видеоплеер, ясно, что вы по сути спрашиваете: "для какой цели он мне нужен?", "для чего он мне нужен?"

Давайте попробуем использовать эти вопросы. Диалог может быть, например, таким:

- На вашем компьютере есть видеоплеер?
- Да. Почему вы спрашиваете?

В данном случае вопрос "почему" используется абсолютно правильно, потому что вопрос "почему вы спрашиваете?" по смыслу равняется вопросу "что вас заставило задать этот вопрос?" (последнее выражение звучит слишком официально и строго, но сейчас это не имеет значения, наша задача сейчас - почувствовать разницу)

Русский язык не возможен без исключений, поэтому бывают и такие случаи, когда слово "зачем" используется в значении "почему". Это редкость, и данная форма считается устаревшей, но ее можно встретить, например, в художественных текстах, в поэзии. Звучат такие фразы более возвышенно, нежели повседневная речь, более эмоционально. Например: "Зачем я не птица?.."

Говорящий не спрашивает, с какой целью он родился человеком, а с некоторой ноткой сожаления спрашивает, почему, по какой причине он не способен парить в воздухе и чувствовать себя более свободным.

Итак, подытожим сказанное короткой формулой.

Зачем = Цель
Почему = Причина

Искусственный интеллект уже в некотором роде помогает определиться вашему будущему. Когда вы ищете что-нибудь в поисковике, пользуетесь сервисом вроде Netflix или банк оценивает вашу пригодность для ипотеки. Но что будет, если искусственному интеллекту придется определять, виновны вы или нет, в суде? Как ни странно, в отдельных странах это уже, возможно, происходит. Недавно американского высокого судью Джона Робертса спросили, может ли он представить день, когда «умные машины, управляемые искусственным интеллектом, будут помогать в поиске улик или даже в принятии судебных решений». Он ответил: «Этот день уже настал, и он существенно помогает судебным органам в производстве дел».

Возможно, Робертс имел в виду недавний случай Эрика Лумиса, которого приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации.

Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять «лучшее» (или по крайней мере более ориентированное на данные) решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса. Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает.

Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества».

Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес такой же приговор. Проверить это наверняка, разумеется, не получится. Какими могут быть когнитивные предубеждения, когда в деле участвует всемогущая «умная» система вроде Compas, которая советует судьям, как им поступать?

Давайте будем откровенны, нет ничего «незаконного» в том, что сделал суд Висконсина - это просто пример. Другие суды могут и будут делать то же самое.

К сожалению, мы не знаем, в какой степени используются ИИ и другие алгоритмы при вынесении приговора. Есть мнение, что некоторые суды «тестируют» системы вроде Compas в закрытых исследованиях, но не могут заявлять о своем партнерстве. Есть также мнение, что несколько стартапов ИИ разрабатывают подобные умные системы.

Однако использование ИИ в законодательстве не начинается и не заканчивается вынесением приговора, оно начинается с расследования. В Великобритании уже разработана система VALCRI, которая выполняет трудоемкие аналитические работы за считанные секунды - пробирается сквозь тонны данных вроде текстов, лабораторных отчетов и полицейских документов, чтобы выделить вещи, которые могут потребовать дальнейшего расследования.

Полиция Уэст-Мидландс в Великобритании будет тестировать VALCRI в течение следующих трех лет, используя анонимные данные, содержащие больше 6,5 миллиона записей. Похожее испытание проводится полицией Антверпена в Бельгии. Однако в прошлом проекты ИИ и глубокого обучения, включающие массивные наборы данных, были проблемными.

Выгоды для немногих

Технологии обеспечили множество полезных приспособлений залам суда, от копировальных аппаратов до извлечения ДНК из отпечатков пальцев и сложных методов наблюдения. Но это не означает, что любая технология - это улучшение.

Хотя использование ИИ в расследованиях и приговорах может потенциально сэкономить время и деньги, оно породит острые проблемы. В докладе по Compas от ProPublica было четко сказано, что черных программа ошибочно считает более склонными к рецидивизму ответчиками, чем белых. Даже самые сложные системы ИИ могут унаследовать расовые и гендерные предубеждения тех, кто их создает.

Более того, какой смысл перекладывать принятие решений (по крайней мере частично) по вопросам, которые уникальны для людей, на алгоритм? В США существует определенная трудность, когда суд присяжных судит своих сверстников. Стандарты в законах никогда не были эталонными, потому эти суды присяжных считаются наиболее демократичными и эффективными системами осуждения. Мы совершаем ошибки, но со временем накапливаем знания о том, как их не совершать, уточняя систему.

Compas и подобные ей системы представляют «черный ящик» в правовой системе. Таковых быть не должно. Правовые системы зависят от непрерывности, прозрачности информации и способности к рассмотрению. Общество не хочет появления системы, которая поощряет гонку с созданием стартапов ИИ, которые делают быстрые, дешевые и эксклюзивные решения. Наспех сделанный ИИ будет ужасным.

Обновленная версия Compas с открытым исходным кодом была бы улучшением. Но сперва придется поднять стандарты системы правосудия, прежде чем мы начнем снимать ответственность в пользу алгоритмов.

Все смотрели фильмы о «Терминаторе», где суперкомпьютер Скайнет обрел свободу воли и решил уничтожить человечество. Чего-то подобного от разработки ИИ ожидают Илон Маск и Стивен Хокинг. Разбираемся, правдивы ли их опасения.

Что такое искусственный интеллект? Почему важно понимать, что это такое? Почему сегодня все о нем говорят?

Если вы читаете прессу, вы наверняка знаете, что с помощью именно этой технологии работают виртуальные помощники Amazon и Google, и что вскоре машины отберут у людей все рабочие места (на самом деле, не факт). Но при этом вряд ли вы отчетливо понимаете, что такое искусственный интеллект, и правда ли роботы нас всех поработят. Эта статья поможет разобраться во всех вопросах.

Что такое искусственный интеллект

Искусственный интеллект (ИИ) - это компьютерная программа, в которую встроен механизм обучения. Получив новые знания, она позже использует их для принятия решения в новой ситуации, как это делают люди. Исследователи, создающие такие программы, пытаются заставить код считывать изображения, текст, видео или звук, и чему-то учиться на основе этой информации. Когда это происходит, полученное знание можно использовать в другом ситуации. Если алгоритм научился распознавать чье-то лицо, позже его можно распознать на фотографиях из Facebook. Применительно к современному ИИ обучение часто называют «тренировкой».

Люди с рождения умеют оперировать сложными идеями: если мы увидим яблоко, то впоследствии сможем узнать и совсем другое, непохожее на первое. Машины же очень буквальны, - у компьютера нет концепции «похожести», - и цель разработок в области искусственного интеллекта как раз и состоит в том, чтобы сделать машины менее буквальными. Машина легко может найти точные дубликаты фотографий яблока или найти два одинаковых предложения в тексте, но чтобы работать с визуальным образом яблока, чтобы распознать изображение того же яблока под другим углом или с другим светом, нужен ИИ. Это обобщение или формирование идеи, основанной на сходстве данных, и позволяет видеть общее в том числе между вещами, с которыми ИИ раньше не сталкивался.

Алекс Рудницкий, профессор компьютерных наук Университета Карнеги-Меллон, говорит: «Цель в том, чтобы облечь сложное человеческое поведение в форму, которую можно обработать вычислительным способом. А это, в свою очередь, позволяет нам создавать системы, способные выполнять сложные действия, полезные для людей».

Далеко ли зашла разработка ИИ

Исследователи ИИ все еще работают над самыми основами. Как научить компьютер распознавать то, что он видит на картинке или в видео? Когда это удастся, нужно двигаться от распознавания к пониманию. Было бы здорово не только узнать, что на картинке яблоко, но и разобраться, что яблоко съедобно, что оно как-то связано с апельсинами и грушами, что люди едят яблоки и используют их при приготовлении яблочного пирога. А еще неплохо бы знать про Мичурина, молодильное яблочко и тому подобные вещи. Кроме того, есть проблема с пониманием языка, поскольку у многих слов существует несколько значений, различимых только в контексте, и все мы по-разному выражаем свои мысли. Как компьютеру охватить это текучее, непрерывно меняющееся явление?

В разных областях скорость прогресса ИИ очень разная. Например, сейчас очень быстро продвигается вперед компьютерное зрение, то есть способность распознавать изображения, при этом с пониманием естественного языка дела обстоят гораздо хуже. В этих областях развивают так называемый «узкий интеллект» - такой ИИ эффективен при работе с изображением, звуком или текстом, но не может воспринимать сразу много разнородных сигналов (при этом у человека мы наблюдаем «общий интеллект»). Многие исследователи надеются, что достижения в отдельных областях помогут понять общие принципы машинного обучения, что все же позволит создать универсальный ИИ.

Почему ИИ - это так важно

Как только ИИ научился узнавать на картинке яблоко или распознавать кусочек речи на аудиозаписи, его уже можно использовать в других программах для принятия решений, для которого в противном случае понадобился бы человек. Например, можно автоматически отмечать друзей на фотографиях в Facebook - иначе это пришлось бы делать вручную. Если речь идет о беспилотном автомобиле или системе помощи водителю, то можно распознавать другие автомобили и дорожные знаки, а в сельском хозяйстве - разбирать урожай, удаляя гнилые плоды.

Эти задачи, основанные только на распознавании изображений, традиционно выполнялись либо пользователем, либо кем-то из компании, предоставляющей программное обеспечение. Если задача экономит время пользователя, это ее конкурентное преимущество, а если она позволяет освободить время сотрудника или делает его работу полностью ненужной, это снижает затраты бизнеса.

Кроме того, есть задачи, которые просто невозможно сделать без машин: например, это обработка аналитики продаж в размере миллионов записей за считанные минуты. Теперь такие задачи выполняются быстро и дешево. Здесь мы учим машину делать то, что раньше делали люди, и, конечно, экономическая выгода от таких нововведений весьма велика.

Джейсон Хонг, профессор Лаборатории компьютерного взаимодействия Университета Карнеги-Меллон, утверждает, что, хотя ИИ может выполнять задачи за человека, он также способен создавать новые виды занятости.

«Автомобили полностью сменили лошадей, но в среднесрочной и долгосрочной перспективе их появление привело к огромному разнообразию задачи и производства - появились фуры, небольшие грузовики, минивэны, кабриолеты и так далее. Аналогичным образом в краткосрочной перспективе системы ИИ станут прямой заменой человека применительно к рутинным задачам, но в среднесрочной и долгосрочной перспективе мы увидим, что это породило новое разнообразие», - говорит он.

Готлиб Даймлер и Карл Бенц не думали о том, как автомобиль изменит облик городов, не думали о загрязнении окружающей среды или об эпидемии ожирения в развитых странах. Так и нам пока трудно оценить долгосрочное влияние этого фактора.

Почему ИИ стал развиваться сейчас, а не 30 или 60 лет назад

На самом деле, многим идеям о том, как должно быть устроено обучение ИИ, даже больше 60 лет. Еще в 1950-х годах ученые Фрэнк Розенблатт, Бернард Видроу и Марчиан Хофф впервые занялись математическим выражением устройства нейронов в соответствии с представлениями тогдашней биологии. Да, одним уравнением любую проблему не решить, но что если подобно мозгу использовать множество связанных уравнений? Исходные примеры были простыми: проанализировать наборы единиц и нулей, поступающих по цифровой телефонной линии, и предсказать, что будет дальше.

На протяжении многих десятилетий в информатике была распространена точка зрения, что никакие сложные проблемы таким образом решить не удастся. Тем не менее сегодня эта концепция лежит в основе большинства систем работающих в этой области крупных компаний: Google, Amazon, Facebook, Microsoft. Теперь, оглядываясь назад, ученые понимают, что компьютеры были недостаточно сложны для моделирования миллиардов нейронов нашего мозга, и что для обучения нейронных сетей требуются огромные объемы данных.

И эти два фактора, вычислительная мощность и достаточное количество данных, появились только в последние 10 лет.

В середине 1990-х годов компания Nvidia, известный производитель видеокарт, обнаружила, что ее графические процессоры хорошо подходят для работы нейронных сетей, и начала выпускать карты, специально приспособленные для работы с ИИ. Было выяснено, что работа с более быстрыми и сложными нейронными сетями приводит к значительному улучшению точности ответов.

Затем в 2009 году исследователь ИИ Фей-Фей Ли опубликовала базу данных под названием ImageNet, которая содержала более 3 млн систематизированных изображений с подписями. Она считала, что если у алгоритмов будет больше примеров, это поможет им освоить более сложные идеи. В 2010 году Ли запустила конкурс ImageNet, а к 2012-му другой исследователь Джефф Хинтон использовал эту базу изображений для обучения нейронной сети - и превзошел все другие приложения с огромным перевесом в точности, более 10%.

Как и предсказывала Ли, количество данных оказалось ключевым параметром. Хинтон также устраивал из нейронных сетей конвейер - одна находила на изображениях фигуры, другая текстуры и т. д. Сегодня это называется глубокими нейронными сетями или глубоким обучением, и, когда вы читаете в новостях об очередном успехе ИИ, речь идет о подобной системе.

Как только в технологической индустрии увидели результаты ученых, начался бум. Исследователи, десятилетиями работавшие над глубоким обучением в относительной безвестности, стали новыми рок-звездами, и к 2015 году у Google было уже более тысячи проектов с использованием машинного обучения.

Нужно ли бояться ИИ

Все смотрели «Терминатора» и готовы испугаться всемогущего Скайнета. Среди ученых потенциальный Скайнет называют суперинтеллектом или общим искусственным интеллектом, подразумевая программу, которая во многих отношениях превосходит человеческий мозг. Поскольку компьютерные системы можно масштабировать - то есть можно создать множество простых и быстрых компьютеров и связать их между собой, - существуют опасения, что такой суперинтеллект сможет расти бесконечно, оставив людей далеко позади. А будучи таким умным, он выйдет из-под контроля и обойдет любые попытки людей этот контроль вернуть. Такой апокалиптический сценарий рисуют нам некоторые из лучших умов современности, например Илон Маск и Стивен Хокинг. Маск, в частности, говорил, что «большинство ведущих исследователей ИИ недооценивают проблему „джинна в бутылке“, несмотря на свой несомненный интеллект в некоторых областях».

Есть и другая точка зрения. Янн Лекун, глава лаборатории исследования искусственного интеллекта Facebook, говорит, что даже если ученым удастся сделать машину, способную обучаться самым разным вещам и организовывать это понимание в картину мира, совершенно не факт, что у такого компьютера появятся собственные желания, воля или инстинкт самосохранения.

«Человеческое поведение - насилие в ответ на угрозу, ревность, желание единоличного доступа к ресурсам, симпатия к родственникам и антипатия к незнакомцам и т. д. - сформировалось у наших предков в ходе эволюции. У разумных машин не будет предпосылок для подобного поведения, если мы сами явно их не создадим», - писал он на сайте Quora.

Нет причин считать, что компьютер сочтет человечество угрозой, поскольку для компьютера не существует понятия угрозы. Да, можно задать параметры, благодаря которым компьютер будет вести себя так, как будто у него есть инстинкт самосохранения, но на самом деле его у него нет.

Эндрю Нг, один из основателей Google Brain и бывший глава направления ИИ в Baidu, любит говорить: «Я не переживаю о злобном ИИ, как не переживаю из-за перенаселенности Марса».

Впрочем, повод для опасений есть - и это человеческий фактор. Было показано, что ИИ очень легко воспринимает человеческое смещение в оценках из данных, на которых он учится. Это может быть какая-то безвредная предрасположенность - например, он может чаще распознавать на картинках кошек, чем собак, потому что его так научили. Но представим себе, что ИИ перенял у людей их стереотипы, и, например, связал понятие «врач» с белыми мужчинами в большей степени, чем с людьми другого пола или расы. Если представить себе, что такой ИИ отвечает за найм врачей, он будет отдавать несправедливое предпочтение некоторым кандидатам.

И это реальность. Исследование издания ProPublica показало, что алгоритмы, используемые для определения приговора преступникам, отражали расовую предубежденность и предлагали назначить более суровое наказание не-белым подсудимым. Дело в том, что при сборе информации о здоровье часто исключают женщин, особенно беременных, и в результате медицинские рекомендации, выработанные на основе таких неполных данных, оказываются слабо применимы к значительному числу пациентов. Таким образом, чтобы доверить машинам принимать решения, которые раньше требовали человеческого присутствия, нужно следить, чтобы это происходило в соответствии с нашей этикой и представлениями о справедливости.

Проблема в том, что даже если вы поняли, что алгоритм предвзят, чтобы его исправить, нужно найти причину. Но поскольку глубокое обучение требует миллионов связанных вычислений, продраться через этот клубок и выяснить, каков вклад того или иного решения в общий результат, невероятно сложно. Эта проблема особенно остро стоит в таких областях как программирование беспилотных автомобилей, ведь каждое решение на дороге - это вопрос жизни и смерти. Первые исследования в этой области дают надежду, что мы сможем разобраться в механизмах работы построенных нами машин. Но пока что понять, почему ИИ, разработанный Facebook, Google или Microsoft, принял то или иное решение, просто невозможно.

Подготовила Евгения Сидорова

Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter
ПОДЕЛИТЬСЯ:
Прокачиваем ораторское искусство, мышление и речь