Выбери любимый жанр
Мир литературы

Выбрать книгу по жанру

Фантастика и фэнтези

Детективы и триллеры

Проза

Любовные романы

Приключения

Детские

Поэзия и драматургия

Старинная литература

Научно-образовательная

Компьютеры и интернет

Справочная литература

Документальная литература

Религия и духовность

Юмор

Дом и семья

Деловая литература

Жанр не определен

Техника

Прочее

Драматургия

Фольклор

Военное дело

Последние комментарии
Сергей2018-11-27
Не книга, а полная чушь! Хорошо, что чит
К книге
Lynxlynx2018-11-27
Читать такие книги полезно для расширени
К книге
Leonika2016-11-07
Есть аналоги и покрасивее...
К книге
Важник2018-11-27
Какое-то смутное ощущение после прочтени
К книге
Aida2018-11-27
Не книга, а полная чушь! Хорошо, что чит
К книге

Язык обмана. Как ИИ нового поколения становится оружием. Джастин Хатчинс. Саммари - Иванов М. Н. - Страница 1


1
Изменить размер шрифта:

Smart Reading

Язык обмана. Как ИИ нового поколения становится оружием. Джастин Хатчинс. Саммари

Оригинальное название:

The Language of Deception: Weaponizing Next Generation AI

Автор:

Justin Hutchens

На грани доверия: человек и его умные машины

(window.adrunTag = window.adrunTag || []).push({v: 1, el: 'adrun-4-144', c: 4, b: 144})

Чем дальше, тем больше мы доверяем умным помощникам – от поисковых и рекомендательных алгоритмов до устройств, установленных в наших домах, и инструментов для решения рабочих задач.

Мы отмахиваемся от паникеров, опасающихся восстания машин, и увлеченно общаемся с ботами обо всем на свете – от бытовых вопросов до рассуждений о смысле жизни… Но всегда ли мы понимаем, что растущее доверие к машинам без должного контроля действительно может обернуться – и уже оборачивается – против нас?

Эксперт в вопросах кибербезопасности и социальной психологии Джастин Хатчинс предлагает читателю не просто обзор современных технологий, а комплексный взгляд на логику развития ИИ и структурированное предупреждение о рисках, которые нужно учитывать уже сегодня.

Эта книга – обязательное чтение для всех, кто интересуется ИИ, кибербезопасностью, философией сознания и будущим цифрового общества. Хатчинс объясняет, как работает социальная инженерия в исполнении ИИ, какие уязвимости существуют в архитектуре моделей-трансформеров, почему тест Тьюринга нерелевантен для современных умных помощников и что люди могут и должны сделать в сфере контроля над ИИ, пока не стало слишком поздно.

Читайте это саммари, чтобы отличать реальность от фантастики даже там, где они практически слились.

Как языковые модели изменили нашу жизнь

Появление моделей, основанных на технологиях обработки естественного языка (большие языковые модели, Large Language Model – LLM), радикально изменило общение людей с окружающим миром.

Мы получили возможность не только мгновенно получать ответы на сложные вопросы и создавать программы, не зная, как писать код, но и вступать в диалог с машиной, а также использовать ИИ для общения с другими людьми.

Когда появился Chat GPT, пользователи Tinder начали активно применять его для общения с потенциальными партнерами.

Эволюция языковых моделей

Системы NLP (Natural Language Processing), разработка которых началась еще в 1950-х годах, можно разделить на два типа:

1) первые работают по заранее заданным параметрам и созданным человеком правилам;

2) вторые – на основе машинного обучения, самостоятельно формируя правила из полученных данных.

Ранние системы обработки языка использовали условную логику: если встречается определенное слово, система дает заранее подготовленный ответ. Такие системы было сложно масштабировать и учить отвечать на сложные запросы.

В диагностической системе для выявления инфекций крови MYCIN, созданной в 1970-х годах, использовалось 500 логических правил. Она была успешна, но требовала очень больших вычислительных мощностей, что затрудняло ее широкое внедрение.

С конца 1990-х годов разработчики начали фокусироваться на создании узкоспециализированных чат-ботов, которые могли поддерживать диалог в пределах конкретной темы. Для улучшения взаимодействия стали использовать сопоставление шаблонов: вместо прописывания всех возможных фраз создавались универсальные конструкции, позволяющие распознавать общие смыслы в репликах пользователей.

В 2000-е годы активно развивался анализ настроений : системы учились интерпретировать эмоции пользователя, например использовать капслок или ругательства как индикаторы гнева. Это должно было сделать взаимодействие более «человечным», но часто приводило к неестественным и фальшивым ответам. Параллельно добавлялись антропоморфные элементы: чат-ботам давали имена, их обучали реагировать на эмоциональные фразы и выстраивать ответы с намеком на сочувствие или юмор. Все это усиливало иллюзию общения с живым собеседником.

В первом десятилетии XXI века началось внедрение более продвинутых методов предобработки текста, среди них – автоматическое исправление орфографических ошибок, нормализация диалектных форм и стемминг (выделение основы слова для облегчения анализа и сопоставления смыслов). Эти приемы позволяли системам лучше понимать разнообразные пользовательские формулировки. Если запрос оказывался непонятным, система переходила к заранее заготовленным универсальным ответам. Появились и первые попытки использовать память: краткосрочную – для учета контекста текущего диалога и долгосрочную – для запоминания предпочтений пользователя между сессиями. Это создавало ощущение более индивидуального (и человеческого) общения.

Наконец, в 2010-х появились статистические языковые модели (SLM), которые обучались на больших объемах текстов и предсказывали наиболее вероятное продолжение фразы на основе частотности словосочетаний. А затем – и нейросетевые модели, такие как LSTM (Long Short-Term Memory), которые позволили учитывать более длинный контекст и последовательно обрабатывать текст с сохранением связи между частями фразы.

Статистические и нейросетевые языковые модели активно применяются в:

распознавании речи – для повышения точности за счет учета контекста;

машинном переводе – для анализа вероятностей соответствия слов в разных языках;

предсказании текста – в пользовательских интерфейсах, когда система помогает продолжить предложение;

автоматической вычитке – при анализе и корректировке больших объемов текста.

В 2014 году компания Amazon выпустила голосового ассистента Alexa вместе с первым устройством Amazon Echo. В 2016-м на конференции Google I/O был представлен Google Assistant, который сначала был встроен в мессенджер Allo и устройство Google Home, затем появился на смартфонах Pixel, а позже – на большинстве Android-устройств. Обе системы использовали достижения в области NLP[1]

Конец ознакомительного фрагмента.

Текст предоставлен ООО «Литрес».

Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

  • 1/1