Помнит ли GPT-3 данные из подсказок, использованных для его дообучения?

Вопрос или проблема

Я пытаюсь дообучить модель, используя API дообучения OpenAI. Я передаю тексты (например, статьи из газет) в качестве подсказок и данные, которые хочу получить, в качестве завершений.

Рассмотрим следующее: если статья из газеты, которую я использовал в качестве подсказки для дообучения данных, содержит информацию, которой GPT не знал ранее, например, ‘литийные руды встречаются в Индии’. Если я после этого использую API завершения и задам GPT вопрос ‘литийные руды встречаются в Индии?’ в качестве подсказки, сможет ли GPT ответить ‘да’?

Запоминает ли GPT-3 данные из подсказок, использованных для его дообучения?

Согласно статье LIMA: Less Is More for Alignment, это очень маловероятно:

Эти результаты сильно указывают на то, что почти все знания в больших языковых моделях усваиваются во время предобучения, и лишь ограниченное количество данных для настройки инструкций необходимо, чтобы научить модели выдавать качественный результат.

Также стоит отметить, что метки в подсказках, похоже, не имеют большого значения, см. Переосмысление роли демонстраций: что делает обучение в контексте эффективным?.Севон Мин, Синси Лю, Ари Хольцман, Микель Артетксе, Майк Льюис, Хананех Хаджиширази, Люк Цеттлемойер. EMNLP 2022.

Ответ или решение

GPT-3 не запоминает данные из запросов, использованных для его дообучения. Это значит, что информация, которую вы вводите в качестве обучающих данных (например, статьи из газет), не хранится в модели. Поэтому, если вы предоставили информацию, такую как “литиевые руды находятся в Индии”, во время процесса дообучения, это не значит, что GPT-3 запомнит или сможет использовать эту информацию.

Согласно исследованиям, например, статье “LIMA: Less Is More for Alignment”, почти все знания в крупных языковых моделях формируются в процессе предварительного обучения, и лишь ограниченное количество данных, используемых для настройки инструкций, необходимо для того, чтобы модели могли выдавать качественный результат. Это подразумевает, что GPT-3 не “запоминает” информацию так, как это делает человек.

Кроме того, исследования, такие как “Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?”, подчеркивают, что метки в запросах не имеют значительного влияния на производительность модели. Таким образом, ваш вопрос “находятся ли литиевые руды в Индии?” может не получить однозначного ответа “да”, даже если вы вводили эту информацию во время дообучения.

В целом, можно сказать, что GPT-3 не способен на долговременную память о данных, которые он обработал в процессе дообучения, и ваша модель не сможет ответить на вопрос на основе ранее введенной специфической информации.

Оцените материал
Добавить комментарий

Капча загружается...