Ашкинази Леонид Александрович
Естественное об искусственном

Lib.ru/Современная: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Помощь]
  • Оставить комментарий
  • © Copyright Ашкинази Леонид Александрович (leonid2047@gmail.com)
  • Размещен: 02/11/2022, изменен: 06/09/2023. 60k. Статистика.
  • Статья: Естеств.науки
  • Иллюстрации/приложения: 5 шт.
  • Скачать FB2
  •  Ваша оценка:


       Естественное об искусственном
      
      

    Компьютерный вирус-вымогатель на базе искусственного интеллекта

    будет вымогать у людей биткойны, и использовать эти деньги для саморазвития,

    оплачивая услуги по программированию, хостингу и распространению в сети.

    Андреанс Антонопулос "Интернет денег"

      
       Попытка определения
      
       Понятие "искусственный интеллект" столь туманно, что одни авторы, предпочитая не обращать внимания на неопределенность общего понятия, пишут о чем-то конкретном -- об алгоритмах или реализациях, другие пытаются сказать что-то общее, но не говорят ничего внятного. Искусственность обычно считают чем-то очевидным, а мусолят понятие "интеллект". Но если все, что создал человек, искусственно, то интеллект наших учеников и детей -- тоже искусственный, и нечего обсуждать. Если же молот и паяльник, наши создания, естественны, то ИИ, наше создание, тоже естественен, и вопрос опять закрыт, но уже по-другому. Далее, учить можно и не человека, а обезьяну -- так что термином "нечеловеческий интеллект" мы не отделаемся. Согласиться на "машинный интеллект"? А что делать, если через тридцать лет (увы, уже не) у меня в аудитории будут сидеть киборги и, надеюсь, киборгини, веселые, милые и радостно усваивающие материал мальчики и девочки -- гибриды? Так что будем пока говорить по традиции "искусственный интеллект" (далее -- ИИ), а потом вернемся к вопросу об определении.
      
       Математик, легко дающий определение функции, разрывной во всех точках отрезка, с ужасом смотрит на физика, дающего определение энергии. По мнению математика, это жалкие потуги, попытка дать определение масла как чего-то, что объединяет разные виды бутербродов и сохраняется при падении на пол. Математик хорошо знает, что с вероятностью 0,5 это не так! Физик на самом деле знает более точный ответ, вдобавок на него смотрит с завистью специалист в области ИИ -- он полтора часа рассказывал на публичной лекции про искусственный интеллект, а потом его спросили, что же это такое. Физику, который рассказывал про черную дыру, таких вопросов уже не задают -- знаменитое фото все видели.
      
       Впрочем, у психологов с определением интеллекта дела обстоят еще страньше -- у них столько определений, сколько теорий, а теорий у них не можно счесть, но это не мешает психологам жить. По-видимому, дело в соотношении степени определенности базовых понятий и требований к ней, сложившихся в конкретной области. Физики как-то смирились с определенной неопределенностью своих определений, а некоторые слушатели лекций про ИИ -- пока еще нет.
      
       Так что разговор о результатах в области искусственного интеллекта естественно начать с вопроса, нет ли новых результатов в области построения определения оного. Их нет, и даже просматривается аналогия с шаровой молнией. Недавно один ее исследователь удовлетворенно написал в статье, что за последние десятилетия произошел переход от попыток построения теории, к исследованию отдельных свойств. С точки зрения ценностей физики, как науки -- это крамола. Но такова жизнь -- если не можешь понять физическое явление в целом, так хоть что-нибудь. Кроме того, из наших частностей ученики могут построить нечто общее. Если мы будем хорошо их учить, конечно.
      
       Отсутствие прогресса в построении определения еще не означает отсутствия продвижения в понимании и воплощении. Понимание может быть широкое, даже с претензией на глобальность, а может быть локальное, которое обходится без общего определения. Более того, на пути синтеза локальных пониманий может родиться нечто большее, чем просто смесь, хотя объединение пониманий -- само по себе сложная задача. Не потому ли беспомощны европейские политики-миротворцы, что они пытаются объединять принципиально разные понимания того, как должен быть устроен мир -- европейское и совсем иное? А что касается воплощения, то интересные и полезные результаты могут быть достигнуты и без серьезного понимания. Древние, не зная географии, путешествовали по миру, не зная сопромата, делали арбалеты и катапульты. Некоторые женщины, не зная химии, биологии и биохимии, делают изумительно вкусную еду.
      
       Кое-что забавное про знаменитый тест
      
       В книге Николенко С., Кадурин А., Архангельская Е. "Глубокое обучение" рассказано следующее.
       Исходная формулировка теста Тьюринга была несколько тоньше и интереснее. Действительно, очевидно, что этот тест задуман крайне несправедливо по отношению к несчастным компьютерным программам. Если представить себе "обратный тест Тьюринга", в котором человек попробовал бы выдать себя за компьютер, он мгновенно был бы раскрыт вопросом вроде "Сколько будет 7233/271?". Тьюринг понимал, что человеку в предложенной им схеме достаточно просто быть собой, а компьютеру надо выдавать себя за кого-то другого. Поэтому исходная формулировка была основана на популярной тогда имитационной игре, в которой мужчина и женщина письменно общаются с судьей. Задача мужчины -- выдать себя за женщину, задача женщины -- помочь судье правильно разобраться, кто есть кто. Тьюринг предложил сравнивать в этой игре результаты компьютера и живых мужчин: тогда обе стороны вынуждены будут имитировать кого-то третьего. Сам Тьюринг считал, что к 2000 году компьютеры с гигабайтом памяти смогут играть в имитационную игру так, чтобы убеждать человека в 30 % случаев (наилучшим результатом было бы 50 %, то есть в идеале решения судьи были бы неотличимы от бросания честной монетки).
      
       Идея использовать в качестве базы человеческую игру, связанную с полом, плоха тем, что переносит центр тяжести проблемы с различия человека и компьютера на различия мужчины и женщины. Это усиливает позицию мужчины, если он врач или психолог соответствующего профиля, а позицию компьютера, -- если он имеет доступ к соответствующей литературе. Следователь сказал бы, что тест Тьюринга надо строить иначе. Человек должен пытаться выявить собеседника-компьютера среди группы, состав которой подбирает противник выделения, и, стало быть, включает в эту группу в том числе и немного странных, причем в разных смыслах, людей. Тут хороший простор и для фантазии, и для понимания того, какие свойства, с какими "весами" и в какой комбинации, воспринимаются нами как человеческий интеллект. И того, может ли у компьютера быть, не к столу будь сказано, "вялотекущая шизофрения". Вот ананкастический синдром точно может (Станислав Лем "Ананке").
      
       При обращении к теме ИИ видна неопределенность границ области и ее модность. Отсюда пустые разговоры, повторы, бессодержательные картинки и непрерывные заклинания --"знаменитый такой-то сказал то-то" и "фирма такая-то сообщила то-то". Ситуация усугубляется паразитированием авторов и издателей на страхах людей. Им кажется, что деньги не пахнут -- ни тем, что имел в виду Веспасиан, вводя платные туалеты, ни адреналином читателей. Понаписано на любую тему уже столько, что можно нащипать любых мнений известных неизвестно кому людей, и цитируя их, выглядеть убедительным. Приятно подмешать своих фантазий, не везде проводя границу. Ровно такая же ситуация сложилась в вопросе влияния деятельности людей на климат. Причем забавно, что климатические катастрофисты обвиняют климатических скептиков в том, что позиция тех связана с психологией -- не замечая, что их собственные писания катастрофической психологией, попросту говоря, сочатся. Естественно, от обсуждения аргументов скептиков они уклоняются.
      
       Кое-что забавное... ой, нет. Уже не забавное
       ИИ имеет отношение к проблеме бессмертия. Начнем с более чем традиционного персонажа научной фантастики, НФ. В ней тема ИИ используется, хотя и реже, чем полеты на другие планеты, но тоже довольно часто. Объединяет их то, что это вообще способ показать "другое", например, другое общество. Автор пытается его придумать, и придумывает настолько другое (Брюс Стерлинг "Рой"), что не решается размещать его на Земле -- обвинят в неполиткорректности. Решение -- другая планета или будущее.
      
       Что касается ИИ, то возможно четыре варианта, условно назовем их так: ИИ без привязки к конкретному человеку и без психологии (Станислав Лем "Дознание"); с привязкой, но без психологии (Уильям Гибсон, "Нейромант"); ИИ с психологией конкретного человека (Станислав Лем "Ананке"); продвинутый ИИ, с психологией, но своей, по замыслу -- оригинальной. Автор придумывает психологию, но человека такого не бывает (Айзек Азимов придумал идеал -- Дэниела Оливо), и он начинает закладывать эту психологию в позитронные мозги. Вопрос о психологии тонок, но не рвется -- ИИ может быть явно связан с конкретной личностью, сам психологии по его заявлениям, не иметь, но вести себя так, что окружающие ее наличие ощущают (Павел Амнуэль "Айзенк").
      
       Разница в том, что про общества мы знаем больше, и, комбинируя свойства и варьируя их выраженность от нуля до абсолютного доминирования, можем вообразить что угодно. Возникает естественный вопрос -- а можем ли мы вообще придумать общество, которое не описывается параметрами, которые мы знаем? То есть общество, у которого есть черта, есть свойство, которое не было бы, хоть немного, где-то когда-то реализовано? Даже при Небухаданаззере III или Ашуретилшамерситубаллисту II? Или автор придумал никогда не встречавшееся в истории сочетание свойств? Хочется спросить историков -- бывает ли такое? Тот же вопрос можно задать про психологию, то есть спросить психиатров и психологов -- можете ли вы придумать такой анамнез, такую психологию, что, прочитав его, вы сами уверенно процитируете Станиславского?
      
       Другая естественная тема НФ -- смерть и что-то, что можно назвать, посмертным существованием. Обобщенный страх смерти, -- если понимать под этим весь спектр, от боязни боли и беспомощности, до злобного сожаления о не прожитом и не увиденном, -- одно из базовых чувств. Некоторые авторы даже утверждают, что вообще самое базовое, и объясняют через него все, от любого творчества, в том числе, детей (желание продлиться вещественно), и любой науки (продлиться информационно), до футурологии с космологией (узнать, что будет через век или миллиард веков). Кстати, следствием необходимости детей стала необходимость секса, а для закрепления секса природа создала любовь. Так что похоже, что в этой идее что-то есть.
      
       Правда, были культуры, устроенные иначе -- в прошлые века и в ряде слоев это вообще было не связано. Для любви были фаворитки, для рожания наследников -- жены. У древних греков жены были для детей, а влюблялись и интересны были гетеры, в Японии своя специфика (см. Википедию -- Гетера, Гейша, Юдзё).
      
       В фантастике страх смерти вылился в два направления, это общение с умершими и собственное радикальное продление жизни или просто бессмертие. Первое направление -- это общение с фантомами, внешне напоминающими умерших и способными поддерживать диалог; общение с умершими, сохраняющими какое-то время и ограниченно, такую способность (Филип Дик "Что сказали мертвецы?"); общение, скажем так, в другой реальности (Аластер Рейнольдс "Помехи"). А продление -- это продление телесное и разума путем, например, временного отключения (Роберт Шекли "Билет на планету Транай"), или перенос разума -- в другое тело, причем не обязательно своего вида (Роберт Шекли "Обмен разумов"), или, наконец, в компьютер (Гарри Гаррисон, Марвин Мински "Выбор по Тьюрингу").
      
       Эти две сюжетные линии могут случайно сплестись. Пример -- миниатюра "Вечный телефон", опубликованная в журнале "Млечный путь", 2020, N 2 (31). Идея проста -- в экипировку для последнего путешествия входят не лук и стрелы (в современной российской фантастике был бы верный АКМ), а смартфон, получающий питание от термоэлемента, то есть от перепадов температуры между почвой (наверное, заглубленным в почву теплопроводящим стержнем, но это автор не уточнил) и внешней средой. Это по сути вечный, хотя и маломощный источник. В смартфон селится простенький ИИ, усвоивший обычные реакции усопшего на обычные события, и его обычные свои собственные реплики и вопросы. Соответственно, ему можно звонить, но, конечно, надо время от времени переводить на его счет денежки. Хотя, если электроэнергию продавать... нет, наверное, свободных мощностей не окажется, тем более, что у ИИ могут быть и свои потребности по части Интернета и общения с другими людьми или ИИ.
      
       За день до публикации этого текста программист А.Ф.Д. (не путать с "Программистом А." Александра Петровича) сформулировал в письме мне (классическая наука всегда так делалась, Хокинг писал Ньютону, тот материл Гука в письмах Фарадею...) следующее.
      
       Это почти возможно уже сейчас, и будет возможно через 10-20 лет. Каждый человек сможет завести себе аккаунт в облаке, в котором ИИ будет собирать о нем информацию в течение его жизни, прослушивать его разговоры с другими людьми (по телефону, е-мэйлу и не только) и строить модель его личности. Через некоторое время человек сможет сам разговаривать голосом (или по е-мэйл) со своей моделью (назовем ее AE, Alter Ego). Он сможет сам сообщать ей что-то о себе, в том числе то, что никто другой не знает о нем. Сможет задавать ей вопросы и корректировать ответы, если надо. AE сама сможет задавать вопросы человеку и запоминать ответы. Интересно также будет поговорить. например, с самим собой, каким он был 30 лет назад.

    Человек сможет разрешить доступ к
    AE, после своей смерти, своим близким и друзьям. И они смогут увидеть на экране его лицо, говорящее его голосом, которое разумно отвечает на вопросы и само задает разумные вопросы, например, "Поступил ли Саша в университет и в какой"? Или близкие сами захотят сообщить что-то AE, который будет продолжать совершенствоваться. AE сможет даже ответить на такие вопросы, ответы на которые никто не знает, например, "Где зарыт сундук с золотом?" :-) Ну, или просто спросить совета, что он думает о такой-то ситуации. Разве это не почти бессмертие?
       Уточним, что AE -- это не дубль, не клон, и даже не виртуальный клон. И дело не только в том, что он, условно говоря, кремниевый. Дубль и клон изначально идентичны оригиналу, хотя дубль ведет себя в некоторых случаях категорически иначе (Стругацкие). Как ведет себя клон, мы не знаем, но разница в стимулах внешнего мира должна повлечь накапливающиеся различия. Что же касается AE, то он изначально отличается от оригинала, -- его софт, да и хард, иные.
      
       Заметим, что главной идее этого раздела, как и указано выше, я обязан Анатолию Д., а Татьяна К. подарила новорожденному два эпиграфа -- синий и красный, вот они.
      
       Тогда можно будет ребенку на вопрос "Почему деда больше не приходит?", ответить: - Он умер. - Что значит -- "умер"? - Он на облаке, смотрит на нас оттуда... - А где это облако? - Далеко, детка.
      
       Или вот: - Наташ, ты спишь? - Вставай, Наташ, мы тебе AE-аккаунт завели. - Когда ты здесь умрешь, мы с тобой разговаривать будем. - Каждый день будем, Наташ, честно.
      
       Древнегреческая шкатулка проблем и вопросов
      
       Начнем с самого простого. Почему доступ "после", а не до? Может быть, AE -- идеальный секретарь и помощник? Нет, и об этом позже. Но возникают всякие юридические вопросы -- правоспособность, ответственность и так далее. Да и "после" тоже -- правоспособность, право на наследство и далее до бесконечности. Таких сюжетов в НФ -- "таскать -- не перетаскать". Но, совершенно понятно, что человечество с этим как-то разберется -- если эта проблема возникнет. Потому, что право -- в цивилизованных странах -- это кодифицированный обычай, кодифицированная массовая психология. У юристов есть термин -- "обычное право". Это не то, что вы подумали, а именно право, опирающееся на обычай. Говорят, что в Африке этого больше, а в Европе меньше, но европейские юристы себе льстят -- в Европе это просто завуалировано.
      
       Обычай, как и право вообще, опирается на психологию. Действия людей всегда опираются на их психологию, ибо закон, право, реализуется через действия, через психологию. Если бы в России 15% людей не были бы готовы бить дубинками и пытать того, на кого укажет начальник -- не было бы той власти и тех силовых структур, которые были и есть. Разница между цивилизованными и не цивилизованными странами всего лишь в двух, хотя и сложных, но зато связанных параметрах. Первый параметр -- это соотношение между насилием и подчинением в головах людей, то есть распределением этого соотношения по социуму. Дискретно говоря, доли потенциальных насильников, то есть готовых по распоряжению начальника стать насильником. И доля потенциальных жертв -- то есть готовых по распоряжению начальника стать жертвой. Остальные -- нормальные люди; границы расплывчаты, от много зависит личное решение, но физика начинает с простой модели. В цивилизованной стране эти три группы, наверное, 5%-90%-5%, а в не цивилизованной 15%-15%-70%. А второй параметр -- это роль насилия в жизни, то есть в праве и практике. В не цивилизованной роль насилия в праве больше, а в практике она еще (это важно) больше. Два параметра влияют друг на друга, причем право и практика растут из психологии, но они ее и воспитывают. Ключевой момент для эволюции -- сумеют ли нормальные сделать две принципиально важные вещи. Первое, это исключить различие между правом и практикой -- помните лозунг "Соблюдайте вашу Конституцию"? Второе, это сделать между правом и традицией маленький педагогический зазор, сдвинув право немножко в сторону гуманизма. Европа шла к цивилизации 8 веков, от Великой хартии вольностей (1215), Америка сделала огромный шаг в самом начале (Мэйфлауэр, 1620), это ускорило дальнейшее. Но путь этот нигде не пройден и до середины, это минимаксная оценка. Кстати, насчет Мэйфлауэра -- академик Е.Д.Свердлов, генетик, считал, что тот шаг мог быть и генетический; интервью с ним называлась "Что вез Мэйфлауэр?", Новые Известия 09.12.1998.
      
       Теперь перед нами важная развилка, до этого места мы ее игнорировали, а теперь не получится. Что мы создаем -- просто AE или AE на базе ИИ (далее AE/ИИ)? Если мы создали просто AE, то единственная проблема -- нужен ли он кому-то, оригиналу и/или зрителям. Ответ прост -- нужен в обе стороны публичным фигурам, артистам, политикам, танцующим у шеста. Нужен им, потому, что они привыкли, и им понравится идея, что и потом они смогут срывать аплодисменты. Понравится и их зрителям, которые хотят видеть кумира и общаться с ним. Кроме того, AE нужен врачам и педагогам, которые в оригинале, при первой жизни, любили свою работу и передали, естественно, это странное свойство AE.
      
       Для внешнего наблюдателя такой ИИ будет до определенного уровня не отличим от живого человека, а во многих случаях будет его совершенно очевидно превосходить. После Watson'а и AlphaGo сомневаться в этом стало неприлично. Разумеется, у человека есть интуиция, ментальность и что-то там еще, но ИИ, выращенный во взаимодействии с человеком, впитает это все, то есть будет -- если его в этом специально не ограничивать, реагировать на внешние стимулы, как реагировал этот человек. ИИ, выращенный во взаимодействии с живым педагогом высокого класса, будет лучше большинства живых педагогов. Например, есть сугубо человеческие мотивы поведения учеников -- влюбленность, озабоченность домашними проблемами, обиды, страх -- он их будет учитывать, причем, в отличие от педагога-человека, всегда; и к манипуляции будет устойчивее. И сможет охватить именно в режиме интерактива, а не лекции, любое количество учеников одновременно. Воспримет ли это аудитория и вообще внешний мир как бессмертие?
      
       Внешний мир вообще -- наверное, да. Слушаем же мы лекции Фейнмана, и тащимся от них, не напоминая себе каждые пять минут, что его уже треть века нет с нами. Уверены ли мы, что все слушатели знают это? А ведь это очень, как сказали бы социологи, "скошенная выборка". А люди вообще? А если наложить на эту лекцию его ответы на вопросы по материалу лекции? ИИ вместе с TV это могут...
      
       А захотят ли с ним общаться "родные и близкие", и друзья? Наверное, какой-то процент скажет, что все это дьявольские шутки и мерзость. И будет втихаря, спрятавшись от единоверцев, сам себя проклиная, общаться. Впрочем, как и они. А большинство -- не проклиная, а мысленно благодаря создателей, и вовремя оплачивая свой анлим с облаком. А на вопрос "бессмертие ли это?" будут отвечать "пошел на" или, соответственно, "фак ю". Потому, что не могут же они сказать себе, что общаются... общаются... с чем? С кем? Ну, самые культурные, и, если социолог спросил, будут просить поставить галочку слева от "з/о", затрудняюсь ответить. Философ сказал бы, что такая реакция означает, что мы создали новую сущность.
      
       Вторая ветвь нашей развилки устроена сложнее, и вопросов там больше. Пусть наш AE не просто AE, а созданный на базе мощного ИИ, или в процессе эволюции обретший такую мощность. Изначально он не был наделен человеческой психологией, но он обязан ее получить в процессе AE-эволюции. Кроме того, она появится у мощного ИИ, в процессе его обучения и само -- через Интернет -- обучения ("Может ли машина мыслить", Химия и жизнь, 2005, N 6). Потому что, если система в процессе обучения использует уже имеющуюся информацию, процесс делается неустойчив -- получив какую-то информацию, мозг начинает использовать ее в дальнейших поисках. У людей так могут на ровном месте возникать эстетические вкусы и политические убеждения. Если же процессом обучения хоть в какой-то мере рулит человек, ИИ усвоит его подход, систему оценок и ценностей, его психологию. Конечно, это "неустойчивость в малом", и различия ограничены, например, студенты-физики, даже при одинаковой успеваемости, разные, но законы сохранения и что Земля не плоская, знают все. Вот только ни помощник, ни секретарь из мощного ИИ, не факт, что получится. Потому что у него свои мнения возникать будут, Поскрёбышев из него не получится.
      
       Мощные AE/ИИ ни в четыре, ни в четыре в четвертой степени стен не засунешь. Они же захотят общаться. Им друг с другом и природой общаться интереснее будет. Так что мы создадим вторую цивилизацию -- мир AE/ИИ. Ну, будем надеяться, что и нам они четыре в минус четвертой степени своего времени уделят. Примерно, как наши дети -- ну да, час в неделю.
      
       Пикантный вопрос -- как этот мир будет взаимодействовать с первым миром, миром обычных людей. Идеологического вмешательства, например, разрушения мира через умелый призыв к разрушению несправедливого мира во имя созидания, равенства, братства, светлого грядущего и так далее, можно не бояться -- сегодняшние "либеральные" СМИ как могут, действуют в этом направлении и вроде, не справляются. Кроме того, в мире AE/ИИ будут и нормальные люди. Это, кстати, аргумент -- не хочется отдавать грядущий мир умным негодяям, которые опять возглавят массу, превращенную их стараниями, в быдло. И снова поведут ее на убой к сияющим вершинам.
      
       Что лично до меня, то я не философ, я простой физик с примесью социолога, и скажу просто: я -- за. В обе стороны. И я был бы счастлив так общаться, могу перечислить, с кем, а если кому-то хочется со мной потом таким способом общаться, я тоже не против. Работайте, компьютерщики, творцы ИИ, создавайте, если успеете, я к вам присоединюсь. Как клиент, пациент и вообще.
      
       Бессмертием я, конечно, лично для себя это считать не могу. Для своих идей -- отчасти, для своей работы -- в очень большой мере. А для своей личности, для коннектома? Я -- это не только писание книжек и преподавание. Теперь, когда в моей жизни нет подземной черноты, не пробиваемой фонарем и разворачивающейся туда с шорохом лесенки, нет ослепительного сияния ледника днем и светящихся палаток в ночи... есть еще и проснутся там, где заснул, с теми же пятнами на протекшем когда-то потолке, с тем же твоим теплом рядом. Вот если когда-то все это наука незаметно для меня ночью втихаря реализует, то, конечно, тогда да...
      
       Робот и ИИ, качество и надежность
      
       Что касается ИИ и роботов, то некоторые авторы эти вещи не вполне разделяют, а зря. ИИ может быть встроен в робота, а может жить в компьютере или вообще в сети. Робот может быть и без ИИ, и с ним, и это психологически важная тема. Что же касается качества их работы, то мы по умолчанию считаем, что качество оценивает человек. Это не обязательно так, возможны более хитрые ситуации. Программа может работать не "на человека", а на другую программу или на устройство, действующее автономно. Например, мы отправляем автономный аппарат к близкой звезде (не к Солнцу). При подлете он должен выпустить зонды, которые обследуют эту систему, а сам полететь дальше. Нам нужна программа, которая определит траекторию облета нашими зондами этой неСолнечной системы. Такая программа должна учитывать много разных факторов, в честности, данные о планетах и об их спутниках, уже полученные при приближении аппарата ко всей этой системе. Программа, которая изучала эти планеты, передает свои данные программе, которая определяет облет зондами системы, а та передает данные автономному аппарату. И человек никогда не увидит результата работы этих программ. А тестировать он мог их сто лет назад и только на своей Солнечной системе, а это не совсем то.
      
       Другой вариант, вроде бы, более прост -- человек, который смотрит на результаты работы программы, есть. Но он не вполне уверен в своем собственном понимании качества решения. Такая ситуация бывает при общении людей -- я вижу, как решает некую задачу мой коллега, но не уверен, что правильно оцениваю его решение. Например, мое решение мне нравится больше, но уверенно сказать, что он ошибается, я не могу. По мере приближения, в любом смысле, ИИ к ЕИ, эта ситуация непременно возникнет.
      
       Другая сложность -- отношение человека к надежности. Автомобиль наедет на пешехода, промышленный робот, неловко развернувшись, заденет мастера В.В.Пупкина по уху -- и вангогом дело может не обойтись. Дело не только в неисправностях, возможны сложные ситуации, причем даже такие, когда придется решать, кого защищать -- своих пассажиров или других, их или пешехода, да и кого из пешеходов... Необходимость как-то сформулировать этические предпочтения побудила людей их исследовать, нашлись интересные корреляции с полом и возрастом, выяснились, что эти предпочтения разные в разных регионах (спросите Сеть "моральные проблемы беспилотных автомобилей"). Но это наука, а борцы с нашествием роботов вполне могут пойти на провокации -- надеясь, что пострадает железка, а они сдерут миллион за моральный ущерб (а может ли быть моральный ущерб у аморального человека?) Психология многих людей такова, что они предпочтут, чтобы давил автомобиль с пьяной дрянью за рулем, чем со в сто раз меньшей вероятностью -- робот. Наверное, психологи могут объяснить, почему это так, но знают ли они, как это изменить? Ведь из-за этого иррационального мышления тормозится внедрение беспилотных автомобилей, а замена лишь одного процента всех автомобилей беспилотными будет спасать десять тысяч жизней ежегодно.
      
       Во всех публикациях по теме ИИ явно или неявно проводится мысль, что он должен быть идеален. Но если он будет ошибаться, скажем, хотя бы вдвое реже, чем человек, то игра уже стоит не только свеч, но и инвестиций. Или вот -- в некоторых странах каждый понимает, чем кончится попытка объяснить неправомерность претензий представителю силовых структур на улице. Робот, несущий полицейские функции, наверняка будет запрограммирован иначе -- потому, что это может быть проверено независимо. Заметим, что проверяемая программная ограниченность роботов-полицейских как раз и может исключить их появление в некоторых странах. Хотя... ну да, проверки можно запретить или, еще лучше, фальсифицировать.
      
       Создавая страшилки, авторы и нарушают логику, и демонстрируют мышление, оторванное от реальности. Например, пишут: "Если полицейские отряды, состоящие из людей, могут отказаться выполнять какие-то драконовские директивы (например, убивать всех представителей определенной демографической группы), то такая автоматизированная система не поддастся никаким угрызениям по поводу проведения в жизнь любых капризов вышестоящих человеческих существ. После того как подобное тоталитарное государство сформируется, для людей окажется практически невозможным положить ему конец". Имея в виду -- попугать машинами, автор оговорился -- "капризы человеческих существ". Кроме того, из истории известно -- были, наверняка есть, -- миллионы людей, которые "не поддаются угрызениям" того, чего у них и вовсе нет.
      
       Ненадежны могут быть не только беспилотные автомобили и промышленные роботы. Любая программа может выдать неправильные цифры -- из-за ошибок, сделанных ее автором или из-за сбоев "железа". Мы привыкли к этому, и как-то научились с этим умеренно справляться, хотя самолеты иногда перепутывают верх и низ. Но человек перепутывает чаще; есть версия, что сбить-то хотели своего, чтобы получить casus belli, а по криворукости грохнули чужого. Но программы, на коробке с которой написано ИИ, человек боится больше, и поэтому предъявляет к ней больше требований. И совершенно зря -- потому, что он сам ошибается чаще этой программы.
      
       Конкретные ситуации
      
       Начнем с ситуаций, когда требуется действие, а потом перейдем к работе с информацией. Промышленные роботы успешно применяются, интеллектом они не блещут, да он им и не нужен. Крики о том, что будет безработица, полезны для издателей, но есть и публикации, в которых показано, что опасности нет. Возникнут новые рабочие места, и в сфере обслуживания, и в сфере производства, причем в среднем с более высокой квалификацией, что пойдет человечеству только на пользу. А для тех, кто окажется не у дел, бизнес уже создал достаточное количество способов безболезненно убить время -- например, социальные сети. Да и под присмотром народишко будет... Человечество уже не раз перекладывало часть ручного труда на железные плечи машин, и как-то обходилось, назад в средневековье никто не хочет. Робота с ИИ человек побаивается -- он больше похож на конкурента, чем ИИ, живущий где-там, в глубине компьютера. А живущий в смартфоне -- совсем не опасен, потому что лежит в кармане.
      
       Медицинские роботы пока развиваются медленнее, потому, что некоторым из них приходится взаимодействовать с людьми плотнее. Вот тут дело пахнет как раз ИИ, потому что человек вообще не всегда предсказуем -- стало быть, жесткую программу составить не удастся. Но зато в этой сфере робот вообще может обогнать человека -- например, имея многопиксельное зрение и мощную систему распознавания микромимики, он будет "читать мысли". В медицине это было бы весьма полезно, как в виде помощника врача и медсестры, так и в виде железного медбрата (или сестрички?). Впрочем, силовые структуры захотят применить такого робота для допроса, а работодатель - при найме. В цивилизованном обществе, когда общество рулит государством, это будет ограничено законодательно, и ограничение будет в некоторой мере соблюдаться.
      
       Интуитивно кажущаяся менее предсказуемой ситуация -- действия в опасных ситуациях, например, спасение людей из завалов при взрывах и обрушении зданий, и военные применения. Работы в этих направлениях, естественно, ведутся, реальные результаты не публикуются, -- жестяные коробки на парадах и примитивные мультики для разогрева аудитории не в счет. Будем надеяться, что практических результатов мы не увидим. Понятно, что в разных странах деньги, выделяемые на работы в этих двух направлениях, сильно разнятся, да и желание развивать то или иное направление, может быть разным у разных людей. Будем надеяться на положительную корреляцию морали и экономики на уровне общества, а совести и ума на уровне личности; во второе родители и педагоги могут внести вклад.
      
       Писателям дарю сюжет. На развалинах города после очередной победоносной операции (стелется дым и витает копоть) встречаются два робота, не только представляющих разные стороны, но и несущих противоположные функции... А еще можно ролевушку учинить. Я -- за.
      
       Следующая ситуация, где действие опосредованное -- это боты, диалог на естественном языке. Тут ситуация ясна, компьютерный перевод делается все лучше, программы могут анализировать тональность, и скоро в некоторых странах при выступлении политиков по телевизору в уголке будет красоваться "по мнению ИИ, доля вранья ...". Кстати, по губам они тоже вот-вот научатся читать, а также снимать сигнал с мышц до произнесения вслух. Фантастика, правда?
      
       Компьютерная генерация текста в некотором смысле проще перевода. Если программе есть, что сказать, она может пользоваться своими языковыми возможностями, которые могут быть ограниченнее, чем потенциально неограниченные возможности внешнего текста. Автор мог использовать даже словотворчество, а программе это не обязательно. Впрочем, если есть такая задача, то язык программы может почти неограниченно расширяться путем обращения к Сети в поисках синонимов, и сложность своего языка программа может подгонять под речь собеседника, чтобы ему было комфортнее.
      
       Тут тоже виден сюжет. Персональная Алиса некого филолога, подружилась с ним и так эволюционировала, что, когда к ней через программный "люк" полез по долгу службы кое-кто, чтобы выяснить, что и кому пишет этот филолог, и что и кто пишет ему, она послала влезшего так далеко, что он не понял трети слов и сильно зауважал.
      
       Работа с данными -- это, например, метаанализ в медицине, это анализ потоков научных данных с ускорителей и телескопов, это юридиспруденция и наверняка еще многое. Если не требовать строгих определений, то в эту категорию попадают шахматы, го, распознавание образов. Во всех этих областях ИИ достаточно успешен, чтобы соревноваться с человеком и побеждать. Поэтому проще всего считать, что эти задачи ИИ решает лучше человека, а в некоторых случаях -- идеально. То есть исходить из того, что в городе, усеянном камерами, каждый ваш шаг может быть отслежен, потому что людей по фотографиям ИИ опознает лучше, чем человек. Тем более, что опознание лиц -- лишь часть того, что называется "биометрия". У человека индивидуальны жесты, походка, мимика, распределение температуры по поверхности тела, отпечатки пальцев... Разумеется, возможность построения такой системы не обязательно означает ее реального создания и применения -- это зависит от общества, от людей. По крайней мере в русском языке выражения "цифровой концлагерь" и "цифровой ошейник" уже возникли.
      
       Для создания эффективного ИИ используются большие наборы исходных данных. При этом в некоторых обществах возникает проблема конфиденциальности, то есть защиты личных данных от неправомерного использования. Иногда в качестве решения проблемы выдается, как пишут, помещение программы в ту среду, где есть данные -- вместо того, чтобы извлекать их оттуда. Придуман даже специальный термин, "федеративное обучение". Однако с точки зрения защиты приватности это только ухудшает ситуацию, так как возможность неправедного использования маскируется.
      
       "Три карты"
      
       При взгляде на историю ИИ видны три фактора. Самый очевидный -- мощность компьютеров, то есть быстродействие, объем памяти, объем и структура нейронной сети. Причем не быстродействие вообще и память вообще, а ориентированные на решение какого-то определенного класса задач. Компьютер, который победил людей в шахматы, не был универсальным, а тот, который впервые выиграл в го у чемпиона, был специализированной сетью из сотен процессоров. А вот его наследник, AlphaGo, уже не был специализированным и сетью. Конечно, компьютер универсален в принципе, так что все это великолепие могло быть реализовано и иначе, но ценой потери эффективности или на сколько-то лет позже. Интересно, как мощность компьютера пересчитывается в силу алгоритма, но непонятно, как эти две вещи измерять по отдельности. В любом случае, ответ будет разным для разных областей, и ответить на него будет трудно еще и потому, что в реальности, программа и железо оказываются связаны. В любом случае, мощность компьютера -- важный фактор. Что же касается объема и структуры нейронной сети, то вот что мы имеем. Здесь каждый квадратик -- одна реализация; расшифровки см. в источнике: Гудфеллоу Я., Бенджио И., Курвилль А. "Глубокое обучение", книга есть с Сети.
       0x01 graphic
      
       0x01 graphic
      
       Эту ситуацию можно сравнить с человеческой. В IQ-тестах Айзенка есть три группы задач -- числовые, словесные и пространственные. Человек может получить существенно разные результаты при решении тестовых задач разных типов, это похоже на разную организацию "железа", используемого мозгом при решении разных задач. Соответственно, это может проявится и при решении некоторых жизненных задач. Далее, имеет значение практика работы, знание подхода к проблемам в конкретных областях. Физик, химик и математик с примерно одинаковыми параметрами по тестам, будут каждый совершенно по-разному выглядеть в своей и в двух не своих областях. Это похоже на наличие или отсутствие соответствующих алгоритмов. Кстати, иногда недостатком ИИ по сравнению с человеком считают "узость", не замечая, что сравнивают конкретное воплощение ИИ с "людьми в целом", а это очевидная некорректность.
      
       Второй фактор -- это алгоритм, причем его элементы можно разделить на человеческие и компьютерные. Человеческие -- это либо случайно похожие на то, как действует человек, либо просто подсмотренные у биологов. Сама идея нейросетей, перцептрон Розенблатта -- это от биологов.
      
       0x01 graphic
      
       Идея выделения из изображения характерных фрагментов -- это от биологов, и поэтому программа "Кора" (Михаил Бонгард) оказалась эффективна. Идея, что для работы нейросети существенны колебания -- это от биологов (осцилляторные нейронные сети). Программы, работающие с текстами на естественном языке -- кладезь "человеческого", благо лингвисты не зря века рыли язык носом. Обучение нейросети показом ей размеченных объектов -- это вообще психология, именно так учат детей, показывая объект и называя его ("смотри, вон кошечка"). Вообще, любые куски человеческих алгоритмов -- если мы их поймем -- могут используются ИИ. Идея об изменении структуры нейросети -- от биологии, в мозгу ежегодно отмирает 105 нейронов, и ходят слухи, что появляются новые. Правда, 105 -- малая доля от 1011, да и вряд ли это используется для обучения. Она идет этажом ниже и называется "синаптическая пластичность", причем кое-что там подозрительно похоже на обучение нейронной сети.
       0x01 graphic
      
       Михаил Бонгард -- о нем вы, если интересно, можете прочитать в Сети -- среди прочего, составил задачник для программ распознавания образов. Эти задачи оказались столь интересны, что специалисты в области ИИ начали после него придумывать аналогичные задачи; спросите Сеть "проблемы Бонгарда". Жизнь человека всегда обидно коротка, а иногда -- особенно коротка. Но можно ли пожелать для себя лучшей кармы? Я ходил к нему на семинары в МГУ и как-то летом решил проситься к нему в ученики. Но осенью узнал, что альпинист Мика Бонгард не спустился с восхождения. Рандомность не щадит и мастеров спорта...
      
       Ключевая доля успеха нейронных сетей -- новые алгоритмы их обучения. Вроде бы это вещи чисто компьютерные, и не в биологии авторы этих алгоритмов подсмотрели свои решения. Однако не исключено, что и в мозгу работают некоторые подобные алгоритмы, и развитие методов нейровизуализации когда-нибудь позволит это установить. Поиск в человеке механизмов, придуманных создателями ИИ -- увлекательное занятие, и мне кажется, что это иногда может делаться без нейровизуализации. Педагоги знают, что обучение решению каких-либо задач может увеличивать успешность решения других задач -- но это применяется и при обучении нейронных сетей. Отметим, что часто применяемое выражение "обучение без учителя" не надо понимать прямо -- в любом подходе и любом методе содержится информация о человеческих знаниях.
      
       Третий фактор -- смешанный, человеко-компьютерный, это компьютерный доступ к человеческому, например, к накопленным знаниям. Такой доступ компьютер может получать через Сеть (подбор реально используемых в речи синонимов), но может этот опыт держать и у себя в голове -- это коллекция шахматных партий, или банк данных программы Watson, которая "уела" двух чемпионов по игре в Jeopardy! (в Израиле -- Мелех ха-тривья, Король интересных фактов, в России -- Своя игра).
      
       Проблемы и прогнозы
      
       Третий фактор был обозначен, как важный, ранее (статья "Может ли машина мыслить" была опубликована в журнале "Химия и жизнь", 2005, N 6, есть она и в Интернете), но похоже, что секрет успешного ИИ -- оптимальное (для каждого конкретного данного круга задач) сочетание человеческого и компьютерного не только в смысле использования информации, но и в алгоритме; в литературе эта идея мелькает. В конце концов, люди учат людей, не зная, как работает мозг, и -- по крайней мере, иногда -- учат успешно. Человек не вполне понимает, как ИИ доказывает математические теоремы (Брайан Дэвис "Куда движется математика?") и как строит физические модели (Сергей Попов "Маглы в мире андроидов"). Это является психологической проблемой для человека, и противоречит нормам развития науки, но мы уже 60 лет не знаем, как распознает перцептрон, и что? Педагоги так живут 2,6 миллиона лет. Неудобно, конечно, но как-то привыкли. С другой стороны, все известные методы обучения можно попытаться перевести в компьютерную плоскость и применить для обучения программы. Есть и еще пути развития ИИ -- кооперация с человеком, кооперация с другой программой, противодействие другой программе; последнее и было использовано при обучении программы AlphaGo. Кстати, для совместной с человеком деятельности робота уже есть название -- "коллаборативная робототехника".
      
       В упомянутой статье "Может ли машина мыслить" был предъявлен некий взгляд на путь, который мог бы привести к возникновению того, что человек, хотя бы с сомнениями, назвал бы человеческим интеллектом. Там же были разобраны многие возражения против возможности человекоподобного ИИ, и показана некорректность этих возражений. С тех пор ситуация продвинулась, например, программа Watson "знает, что она знает", она сравнивает и ранжирует алгоритмы -- что это, как не самосознание? Причем в этой программе есть специальный блок WatsonPaths, который показывает человеку пути, по которым программа шла к ответу (в результате эта программа стала учить студентов-медиков идти к диагнозу). Некоторые авторы, защищая свою "самость", часто вопрошают, а "понимала ли" программа, что слышала и что говорила? Но если спросить человека, да хотя бы себя самого, что такое "понимание", то окажется, что понимание текста -- это определение, исходя из контекста, в каком смысле употреблено то или иное многозначное слово. Если же речь идет не о тексте, а имеется в виду общение, то это определение субъективного смысла того или иного слова -- конкретно, для этого собеседника и в конкретной ситуации. При таком определении для понимания нужно вырасти в рамках конкретной культуры и накопить соответствующие знания. Аналогичный процесс вполне может быть реализован и для компьютера; только идти он будет на порядки быстрее. Идея эволюционирующего социума ИИ есть в фантастике (Грег Иган "Кристальные ночи").
      
       Изучение работы и попытка моделирования человеческого мозга человеком немного напоминает попытку молекул изучать молекулы и строить их модели. Для молекул это, наверное, было бы сложной задачей. Но "молекулы" (1,65 метра) сумели узнать что-то о Вселенной (1027 м), это равносильно тому, что молекула воды (1,54•10-10 м), мирно плещущаяся в стакане, узнала что-то не только о стакане, столе, Земле, Койпере и Оорте, но дотянулась своим пониманием (1017 м) до звезд и даже экзопланет. Так что надежда есть.
      
       ИИ может учиться сам (например, ища информацию в Сети или наблюдая действия людей), но это можно делать по-разному. Первый вариант -- он делает это так, как мы ему сказали. Второй -- он может начать учиться, подражая тому, как учатся люди, но команду "учиться" ему дали. Третий -- можно подождать, пока он сам начнет это делать, исходя из своих целей (например, выживания) или внешних задач, поставленных человеком.
      
       Немного психологии и обещанное определение
      
       Страхи, которые возникают у людей при обращении к теме ИИ и роботов, можно разделить на несколько типов. Простейший -- это проекция на них какой-либо внушающей страх черты человека, например, властолюбия или вообще стремления к экспансии. Но все человеческие черты, в том числе и плохие, являются результатом биологии и истории. За ИИ и роботами нет ни того, ни другого, и этого можно не опасаться. Желание захватить власть может возникнуть, если мы поставим перед ними задачу, требующую для своего выполнения именно власти над всей землей. Так что, создавая ИИ, реально способный захватить власть, и собираясь ставить перед ним глобальные задачи, нужно задуматься об ограничениях в методах, или об объяснении предполагаемых действий, или о моделировании последствий.
      
       Некоторые тонкие вопросы были в свое время разобраны Станиславом Лемом в работе "Сумма технологии". Например, мощный ИИ обнаруживает влияние рождаемости на благосостояние и, решая задачу подъема благосостояния, начинает каким-либо способом понижать рождаемость. Разумеется, если дать в руки ИИ эти средства, поставить именно такую задачу и отказаться от какого-либо контроля, можно в теории получить подобный результат.
      
       Кроме ИИ, людям есть и еще, о чем беспокоиться. Например, когда Солнце превратится в красный карлик, уменьшится количество ультрафиолета в атмосфере и вольготнее начнут чувствовать себя микробы. А Всемирная организация здравоохранения (ВОЗ) не только не адекватно реагировала на коронавирус, но этому фактору не уделяет должного внимания.
      
       Кстати, еще сюжет для писателей. Все цивилизации Вселенной идут именно по этому пути и получают конечный результат. Но кого-то, естественно, успевает спасти герой, естественно с Земли. Если же говорить серьезно, то в тоталитарном государстве с людьми, опущенными до уровня безгласной массы, может быть, да и бывало, не только такое. Так что не стройте тоталитаризма, не человеческого, ни компьютерного, и не опускайтесь до плинтуса.
      
       Что касается именно роботов, то некоторые авторы почему-то считают, что именно человекоподобие будет вызывать у людей отторжение. Но, судя по популярности цифровых помощников и секс-кукол, это не так. Следующий шаг -- их объединение. Начало простое -- только голос. Вот когда они получат интеллект... потому что, мне кажется, люди просто боятся конкуренции. Опять же, подсознательно наделяя робота с ИИ еще и ущербной человеческой психологией (см. В.Пелевин "S.N.U.F.F")
      
       Серьезной опасности можно ожидать от ИИ, если он действительно заимствует человеческую психологию. Это возможно в трех случаях. Первый -- воспитание конкретного ИИ человеком с опасной для людей психологией (Станислав Лем, "Ананке"). Второй случай -- изучение ИИ истории людей и выбор зла; этого можно избежать, поставив критерием со знаком минус количество жертв на ограниченном интервале, скажем, за поколение (чтобы ИИ не вздумал устроить текущую гекатомбу ради будущего светлого царства, как некоторые люди). Третий случай -- эволюция системы ИИ, похожая на эволюцию людей, выбор конкретным ИИ зла, и распространение этого выбора на всю деятельность. Это маловероятно, поскольку человечество в целом вроде бы зло не выбирает.
      
       В этой статье мы пользовались интуитивным представлением об ИИ, но обещали более серьезное. Вот оно:
       искусственный интеллект -- это (1) обработчик информации, (2) созданный иначе, нежели обучением в обычном мире детеныша человека, (3) непонятно как действующий, (4) иногда дающий результат, неожиданный для человека и, желательно, могущий объяснить, как он к нему пришел.
      
       Определение сконструировано примитивно -- по аналогии с нашим интуитивным пониманием ЕИ, естественного интеллекта. Действительно, человека, делающего примерно то же, что делает промышленный робот, мы интеллектуалом не сочтем. И не потому, что мы его не уважаем, а потому, что можем понять и повторить его действия. А повторить или хотя бы понять действия того же человека в области, профессионально знакомой ему по многолетнему опыту, но в нестандартной ситуации -- например, при ремонте сложного повреждения какого-то устройства -- мы не сможем. Именно в этой ситуации мы сочтем этого человека носителем интеллекта. Такое определение некоторым покажется обидным. Претензии можете направлять прямо Алану Тьюрингу, который тоже использовал как критерий ИИ именно "не срабатывание" человеческого интеллекта, неумение распознать.
      
       0x01 graphic
      
      
       Второй пункт сформулирован "с запасом". Не исключено, что человек, выросший вне обычного мира, например, обученный внеземным разумом или ИИ, созданным людьми, окажется вполне нормальным человеком. Хотя в первом случае это крайне сомнительно (хотя у Стругацких получилось), да и во втором не гарантировано. Сегодня секс, деторождение, воспитание в нормальной семье и получение серьезного образования мы считаем естественным путем создания интеллекта, а глубокое обучение компьютерных моделей считаем искусственным путем. Но к середине века ситуация может усложниться, например, принципы обучения нейронных сетей могут проникнуть в человеческую педагогику.
      
       Сейчас область ИИ в целом находится на участке подъема кривой Gartner. Мы видим потрясающе интересные новые результаты, которые соседствуют с мусором и шумом, с тем, что сейчас называют "хайп". Некоторые авторы, рассказывая о применении ИИ в медицине и критикуя этот "хайп", пишут: "Когнитивные, аналитические, интуитивные аспекты клинического мышления автоматизировать невозможно, по крайней мере в ближайшие пару сотен лет". До чего надо довести серьезного человека, чтобы он написал такое! Впрочем, люди, ничего не понимающие в проблеме ИИ пишут и так: "Создание робота, который обладал бы чувствами, индивидуальным выбором и непредсказуемостью реакций, не говоря уже о сложнейшей психике подсознания, невозможно в принципе". Не разочарует ли жизнь ИИ-отрицателей? А новые результаты могут иметь как самые позитивные для людей, так и самые мрачные для большинства людей следствия -- все зависит от общества, от людей.
      
       А вот в этом нет ничего нового.
       ------------------------------------------------------
      
       Автор благодарен своим друзьям, Наталье К., Татьяне К. и Анатолию Д. за многочисленные полезные замечания; почти все они учтены.
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      

  • Оставить комментарий
  • © Copyright Ашкинази Леонид Александрович (leonid2047@gmail.com)
  • Обновлено: 06/09/2023. 60k. Статистика.
  • Статья: Естеств.науки
  •  Ваша оценка:

    Связаться с программистом сайта.