inference
Data Science
Как использовать несколько адаптеров с предобученной моделью в Hugging Face Transformers для вывода?
Вопрос или проблема У меня есть предобученная модель Llama-2 в директории models_hf и два адаптера с дообучением: адаптер для обобщения в ./tmp/llama-output и чат-адаптер в ./tmp/chat_adapter. Подробности кода находятся в другом вопросе.
Data Science
Вопрос или проблема Я новичок. Я попытался предварительно обучить и внедрить JPEG-LM с нуля с использованием Llama-2. Код можно найти здесь. Во время оценки и обучения он возвращает высокую точность, что может указывать на переобучение.
Data Science
Вопрос или проблема На этом сайте я нашел реализацию на Python для выбора набора предикторов в обычной линейной регрессии, включающую Метод Лучшего Подмножества, Прямой Пошаговый Отбор и др. Это должно быть дополнением к книге An Introduction to Statistical
Data Science
Вопрос или проблема Я работаю с библиотекой SentenceTransformers с одной из их моделей встраивания. Производительность хорошая, но я хотел бы пожертвовать частью точности ради повышения производительности. Я пробовал квантизировать модель, с которой работаю