llama
Вопросы и ответы
Вопрос или проблема В настоящее время я использую следующий llm, как упоминалось выше. Я использую unsloth для более быстрой обработки. Параметры, с которыми я загрузил модель, приведены ниже: model, tokenizer = FastLanguageModel.
Вопросы и ответы
Вопрос или проблема Я пытаюсь дообучить Llama-3-8B для задачи регрессии с использованием PEFT, чтобы модель выдавала число с плавающей запятой для “оценки” входных данных. Я попытался адаптировать модель, изменив количество выходных логитов
Вопросы и ответы
Вопрос или проблема Несравненное поведение unsloth lora_adapter по сравнению с чистой моделью Unsloth Llama 3.1 (8B) ▶️ Начать бесплатно Я использую приведенный выше пример кода unsloth с моими данными для тонкой настройки с помощью lora_adapter, но когда