Вопрос или проблема
Я пытаюсь дообучить модель, используя API дообучения OpenAI. Я передаю тексты (например, статьи из газет) в качестве подсказок и данные, которые хочу получить, в качестве завершений.
Рассмотрим следующее: если статья из газеты, которую я использовал в качестве подсказки для дообучения данных, содержит информацию, которой GPT не знал ранее, например, ‘литийные руды встречаются в Индии’. Если я после этого использую API завершения и задам GPT вопрос ‘литийные руды встречаются в Индии?’ в качестве подсказки, сможет ли GPT ответить ‘да’?
Запоминает ли GPT-3 данные из подсказок, использованных для его дообучения?
Согласно статье LIMA: Less Is More for Alignment, это очень маловероятно:
Эти результаты сильно указывают на то, что почти все знания в больших языковых моделях усваиваются во время предобучения, и лишь ограниченное количество данных для настройки инструкций необходимо, чтобы научить модели выдавать качественный результат.
Также стоит отметить, что метки в подсказках, похоже, не имеют большого значения, см. Переосмысление роли демонстраций: что делает обучение в контексте эффективным?.Севон Мин, Синси Лю, Ари Хольцман, Микель Артетксе, Майк Льюис, Хананех Хаджиширази, Люк Цеттлемойер. EMNLP 2022.
Ответ или решение
GPT-3 не запоминает данные из запросов, использованных для его дообучения. Это значит, что информация, которую вы вводите в качестве обучающих данных (например, статьи из газет), не хранится в модели. Поэтому, если вы предоставили информацию, такую как “литиевые руды находятся в Индии”, во время процесса дообучения, это не значит, что GPT-3 запомнит или сможет использовать эту информацию.
Согласно исследованиям, например, статье “LIMA: Less Is More for Alignment”, почти все знания в крупных языковых моделях формируются в процессе предварительного обучения, и лишь ограниченное количество данных, используемых для настройки инструкций, необходимо для того, чтобы модели могли выдавать качественный результат. Это подразумевает, что GPT-3 не “запоминает” информацию так, как это делает человек.
Кроме того, исследования, такие как “Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?”, подчеркивают, что метки в запросах не имеют значительного влияния на производительность модели. Таким образом, ваш вопрос “находятся ли литиевые руды в Индии?” может не получить однозначного ответа “да”, даже если вы вводили эту информацию во время дообучения.
В целом, можно сказать, что GPT-3 не способен на долговременную память о данных, которые он обработал в процессе дообучения, и ваша модель не сможет ответить на вопрос на основе ранее введенной специфической информации.