Паульман Валерий Федорович
Разум и искусственный интеллект

Lib.ru/Современная: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Помощь]
  • Оставить комментарий
  • © Copyright Паульман Валерий Федорович (paulman.valery@mail.ru)
  • Размещен: 21/12/2023, изменен: 21/12/2023. 7k. Статистика.
  • Статья: Философия
  • Скачать FB2
  •  Ваша оценка:

      Разум и искусственный интеллект
      
       Начну, пожалуй, с заявления британского чипмейкера Arm Рене Хааса, который предупредил о "восстании машин". Arm Рене Хаас заявил, что его самый большой страх, касающийся развития искусственного интеллекта, состоит в том, что он получит контроль над человеком. Arm Рене Хаас призвал найти способ "отключить систему".
       Рассмотрим, насколько опасения Arm Рене Хааса оправданы.
       Сначала о том, что из себя представляет искусственный интеллект
      - Искусственный интеллект (ИИ) - это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы связываем с разумом, - понимание языка, обучение, способность рассуждать, решать проблемы и т. д. ИИ является мощным инструментом разума, который он создал в ХХ веке.
       Кстати, информа́тика (фр. informatique; англ. computer science) - наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации.
      ‎ Термин ИИ употребляется уже 70 лет.
       ИИ используется:
       -в разработке программного обеспечения,
       для решения демографических проблем,
       в целях обороны и в военном деле,
       в образовании,
       в бизнесе,
       в квантовой физике,
       в борьбе с мошенничеством,
       в электроэнергетике,
       в производственной сфере,
       в банках,
       на транспорте,
       в логистике,
       в аудите,
       в торговле,
       в сельском хозяйстве,
       на рынке предметов и услуг роскоши,
       в ресторанах,
       в пивоварении,
       в юриспруденции,
       в госуправлении,
       в ЖКХ,
      = в криминалистике,
       в судебной системе,
       в спорте,
       в медицине (здравоохранении).
       Словом, ИИ задействован человечеством практически во всех сферах общественной жизни.
       ИИ является комплексом родственных технологий и процессов, развивающихся качественно и стремительно, например, в таких областях, как:
       обработка текста на естественном языке,
       машинное обучение,
       экспертные системы,
       виртуальные агенты (чат-боты и виртуальные помощники),
       системы рекомендаций.
       ИИ находит, отслеживает, классифицирует, идентифицирует объекты, анализирует полученную информацию.
       ИИ применяется для:
       -распознавания объектов,
       - аналитики,
       -описания содержания изображений и видео,
       -распознавания жестов и рукописного ввода,
       -интеллектуальной обработки изображений.
       При анализе данных ИИ находит закономерности и прогнозирует. При этом ИИ использует методы статистики и эконометрики.
       Теперь мы можем перейти к ответу на вопрос о том, какую угрозу представляет искусственный интеллект для человечества. Неужели он подобен ядерному оружию, также созданному разумом?
       Развитие технологий искусственного интеллекта в перспективе может нести не только пользу, но и вред.
       Известно, что администрация президента США выпустила инструкцию о защите людей от ИИ.
       7 октября 2022 года Управление по научно-технической политике (OSTP) Белого дома сформулировало пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем. Документ подготовлен на фоне того, как по мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными.
       Пользователь должен быть защищен от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться на основе консультаций с различными сообществами, заинтересованными сторонами и экспертами в данной области для определения проблем, рисков и потенциального воздействия системы. Системы должны проходить тестирование перед развертыванием для выявления и снижения рисков, а также постоянный мониторинг, который продемонстрирует их безопасность и эффективность.
       Пользователи не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на принципах равноправия. В зависимости от конкретных обстоятельств, алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны принимать проактивные и последовательные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем на основе равноправия.
       Пользователь должен быть защищен от неправомерного использования данных с помощью встроенных средств защиты, и он должен иметь право распоряжаться тем, как используются данные о нем. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны запрашивать у пользователя разрешение и уважать его решения относительно сбора, использования, доступа, передачи и удаления его данных соответствующими способами и в максимально возможной степени; если это невозможно, следует использовать альтернативные средства защиты конфиденциальности на основе дизайна.
       Пользователь должен знать, что автоматизированная система используется, и понимать, как и почему она способствует достижению результатов, которые влияют на него. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включающую четкое описание общего функционирования системы и роли, которую играет автоматизация, уведомление о том, что такие системы используются, о лице или организации, ответственной за систему, и объяснение результатов, которое должно быть четким, своевременным и доступным.
       Пользователь должен иметь возможность отказаться от услуг, где это необходимо, и иметь доступ к специалисту, который может быстро рассмотреть и устранить возникшие проблемы. Пользователь должен иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно.
       Кроме того 16 февраля 2022 года появилась информация о том, что бывший исполнительный директор Google Эрик Шмидт (Eric Schmidt) объявил о создании благотворительного фонда с общим капиталом 125 млн долларов, который будет оказывать содействие исследованиям в сфере искусственного интеллекта. Речь, в первую очередь, идёт об исследованиях, направленных на решение кардинальных проблем, проявляющихся при использовании технологий искусственного интеллекта, в том числе предвзятости (феномен AI bias - прим. TAdviser), возможности причинения вреда и злоупотреблений. В списке значатся также геополитические конфликты и научная ограниченность самой технологии.
      При написании данной статьи автор использовал информацию из Википедии.

  • Оставить комментарий
  • © Copyright Паульман Валерий Федорович (paulman.valery@mail.ru)
  • Обновлено: 21/12/2023. 7k. Статистика.
  • Статья: Философия
  •  Ваша оценка:

    Связаться с программистом сайта.