Промпт Инженерия by Lee Boonstra (Часть 1)

Вам не нужно быть специалистом по данным или инженером по машинному обучению — писать промпты может каждый.

Введение

При работе с входными и выходными данными большой языковой модели (LLM) текстовый промпт (иногда сопровождаемый другими модальностями, например, изображениями) — это входные данные, на основе которых модель прогнозирует определённый вывод. Вам не нужно быть специалистом по данным или инженером по машинному обучению — писать промпты может каждый. Однако создание наиболее эффективного промпта может быть сложной задачей. На его результативность влияет множество факторов: выбранная модель, её обучающие данные, настройки модели, ваш выбор слов, стиль и тон, структура и контекст. Поэтому инженерия промптов — это итеративный процесс. Некачественные промпты могут приводить к неоднозначным, неточным ответам и ограничивать способность модели выдавать осмысленные результаты.

Когда вы общаетесь с чат-ботом Gemini, вы, по сути, пишете промпты. Однако в этом руководстве основное внимание уделяется созданию промптов для модели Gemini в Vertex AI или через API, поскольку прямой доступ к модели позволяет настраивать такие параметры, как температура (temperature) и другие.

В этом документе подробно рассматривается инженерия промптов. Мы изучим различные техники промптинга, которые помогут вам начать работу, а также поделимся советами и лучшими практиками, чтобы стать экспертом в этой области. Кроме того, мы обсудим некоторые трудности, с которыми можно столкнуться при создании промптов.

Инженерия промптов

Помните, как работает LLM: это прогностическая система. Модель принимает последовательность текста на вход и предсказывает следующий токен на основе данных, на которых она обучалась. LLM повторяет этот процесс снова и снова, добавляя каждый предсказанный токен к последовательности, чтобы предсказать следующий. Прогнозирование следующего токена основано на взаимосвязи между предыдущими токенами и тем, что модель «видела» во время обучения.

Когда вы пишете промпт, вы пытаетесь настроить LLM так, чтобы она предсказывала правильную последовательность токенов. Инженерия промптов — это процесс разработки высококачественных промптов, которые направляют LLM на генерацию точных результатов. Этот процесс включает эксперименты для поиска оптимального промпта, оптимизацию его длины, а также оценку стиля и структуры промпта в зависимости от задачи. В контексте обработки естественного языка и LLM промпт — это входные данные, передаваемые модели для получения ответа или прогноза.

С помощью промптов можно выполнять различные задачи, такие как:

  • суммаризация текста,
  • извлечение информации,
  • ответы на вопросы,
  • классификация текста,
  • перевод языков или кода,
  • генерация кода,
  • документирование кода или логические рассуждения.

Вы можете обратиться к руководствам Google по промптингу, где приведены простые и эффективные примеры промптов.

При работе с инженерией промптов сначала нужно выбрать модель. Промпты могут потребовать оптимизации под конкретную модель, независимо от того, используете ли вы языковые модели Gemini в Vertex AI, GPT, Claude или открытые модели, такие как Gemma или LLaMA.

Помимо промпта, вам также может потребоваться экспериментировать с различными настройками LLM.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

десять − 4 =

Прокрутить вверх