Как использовать диаграмму знаний диалога в LangChain?

Kak Ispol Zovat Diagrammu Znanij Dialoga V Langchain



LangChain — это модуль для создания языковых моделей, которые могут имитировать разговорный формат, когда люди взаимодействуют друг с другом. Пользователь может задавать вопросы в виде строк или текста на естественных языках, а модель будет извлекать или генерировать информацию для пользователя. К этим моделям прикреплена память, поэтому они могут хранить предыдущие сообщения, чтобы получить контекст разговора.

Это руководство проиллюстрирует процесс использования графа знаний диалога в LangChain.

Как использовать диаграмму знаний диалога в LangChain?

РазговорKGПамять Библиотека может использоваться для воссоздания памяти, которую можно использовать для получения контекста взаимодействия. Чтобы изучить процесс использования графа знаний разговоров в LangChain, просто выполните перечисленные шаги:







Шаг 1. Установите модули

Сначала начните использовать граф знаний диалога, установив модуль LangChain:



pip установить langchain



Установите модуль OpenAI, который можно установить с помощью команды pip, чтобы получить библиотеки для построения больших языковых моделей:





pip установить openai

Сейчас, настроить среду используя ключ API OpenAI, который можно сгенерировать из его учетной записи:



Импортировать ты

Импортировать получить пропуск

ты . примерно [ 'ОПЕНАЙ_API_KEY' ] '=' получить пропуск . получить пропуск ( «Ключ API OpenAI:» )

Шаг 2. Использование памяти с LLM

После установки модулей начните использовать память с LLM, импортировав необходимые библиотеки из модуля LangChain:

от лангчейн. Память Импортировать РазговорKGПамять

от лангчейн. llms Импортировать ОпенАИ

Создайте LLM с помощью метода OpenAI() и настройте память с помощью метода РазговорKGПамять () метод. После этого сохраните шаблоны подсказок, используя несколько входных данных, с соответствующим ответом, чтобы обучить модель на этих данных:

лм '=' ОпенАИ ( температура '=' 0 )

Память '=' РазговорKGПамять ( лм '=' лм )

Память. save_context ( { 'вход' : «Передать привет Джону» } , { 'выход' : 'Джон! Кто' } )

Память. save_context ( { 'вход' : 'он - друг' } , { 'выход' : 'конечно' } )

Проверьте память, загрузив память_переменные () с использованием запроса, связанного с приведенными выше данными:

Память. load_memory_variables ( { 'вход' : 'кто такой Джон' } )

Настройте память с помощью метода ConversationKGMemory() с return_messages аргумент для получения истории ввода:

Память '=' РазговорKGПамять ( лм '=' лм , return_messages '=' Истинный )

Память. save_context ( { 'вход' : «Передать привет Джону» } , { 'выход' : 'Джон! Кто' } )

Память. save_context ( { 'вход' : 'он - друг' } , { 'выход' : 'конечно' } )

Просто проверьте память, предоставив входному аргументу его значение в форме запроса:

Память. load_memory_variables ( { 'вход' : 'кто такой Джон' } )

Теперь проверьте память, задав вопрос, который не упоминается в обучающих данных, и модель понятия не имеет об ответе:

Память. get_current_entities ( «какой любимый цвет Джона» )

Использовать get_knowledge_triplets (), ответив на заданный ранее запрос:

Память. get_knowledge_triplets ( «его любимый цвет — красный» )

Шаг 3: Использование памяти в цепочке

На следующем шаге используется память разговоров с цепочками для построения модели LLM с помощью метода OpenAI(). После этого настройте шаблон приглашения, используя структуру диалога, и текст будет отображаться при получении вывода модели:

лм '=' ОпенАИ ( температура '=' 0 )
от лангчейн. подсказки . быстрый Импортировать Шаблон приглашения
от лангчейн. цепи Импортировать Разговорная цепочка

шаблон '=' '''Это шаблон взаимодействия человека и машины.
Система представляет собой модель искусственного интеллекта, которая может говорить или извлекать информацию о нескольких аспектах.
Если он не понимает вопроса или не знает ответа, он просто говорит об этом.
Система извлекает данные, хранящиеся в разделе «Конкретные» и не галлюцинирует.

Специфический:

{история}

Беседа:
Человек: {вход}
ИИ: '''

#Настройте шаблон или структуру для предоставления подсказок и получения ответа от системы ИИ.
быстрый '=' Шаблон приглашения ( входные_переменные '=' [ 'история' , 'вход' ] , шаблон '=' шаблон )
разговор_с_кг '=' Разговорная цепочка (
лм '=' лм , подробный '=' Истинный , быстрый '=' быстрый , Память '=' РазговорKGПамять ( лм '=' лм )
)

После создания модели просто вызовите разговор_с_кг модель с использованием метода Predict() с запросом, заданным пользователем:

разговор_с_кг. предсказывать ( вход '=' 'Привет как дела?' )

Теперь обучите модель, используя память разговоров, передав информацию в качестве входного аргумента метода:

разговор_с_кг. предсказывать (

вход '=' «Меня зовут Джеймс, и я помогаю Уиллу, он инженер»

)

Пришло время протестировать модель, задав запросы для извлечения информации из данных:

разговор_с_кг. предсказывать ( вход '=' 'Кто такой Уилл' )

Это все, что касается использования графа знаний разговоров в LangChain.

Заключение

Чтобы использовать граф знаний диалога в LangChain, установите модули или платформы для импорта библиотек для использования метода ConversationKGMemory(). После этого постройте модель, используя память для построения цепочек, и извлеките информацию из обучающих данных, предусмотренных в конфигурации. В этом руководстве подробно описан процесс использования графа знаний диалога в LangChain.