huggingface
Data Science
Вопрос или проблема Я знаком с концепциями машинного обучения и глубокого обучения и посмотрел на Dolly, а также запустил предобученную модель на ноутбуке Jupyter lab в Databricks. Однако, когда я смотрю на формат их тренировочного набора данных, все
Data Science
Вопрос или проблема Я тестировал предобученные модели Opus-MT, перенесенные в библиотеку transformers для реализации на Python. В частности, я использую opus-mt-en-fr для перевода с английского на французский. Токенизатор и модель перевода загружаются
Data Science
Как использовать несколько адаптеров с предобученной моделью в Hugging Face Transformers для вывода?
Вопрос или проблема У меня есть предобученная модель Llama-2 в директории models_hf и два адаптера с дообучением: адаптер для обобщения в ./tmp/llama-output и чат-адаптер в ./tmp/chat_adapter. Подробности кода находятся в другом вопросе.
Вопросы и ответы
Вопрос или проблема Я хотел сгенерировать изображение, используя текстовые эмбеддинги вместо текста в качестве входных данных, используя CLIP для токенизации и эмбеддингов. Код на данный момент: from transformers import AutoTokenizer, CLIPTextModelWithProjection
Data Science
Как мне получить векторные представления слов для слов вне словаря, используя трансформерную модель?
Вопрос или проблема Когда я попытался получить векторные представления слов для предложения с использованием bio_clinical bert, для предложения из 8 слов я получил 11 идентификаторов токенов (+начальный и конечный токены), потому что “
Data Science
Вопрос или проблема import datasets from accelerate import Accelerator,notebook_launcher from datasets import load_from_disk from transformers import AutoModelForSeq2SeqLM, DataCollatorForSeq2Seq, PreTrainedTokenizerFast, Seq2SeqTrainingArguments, Seq2SeqTrainer
Data Science
Вопрос или проблема Я играю с API Inference от Hugging Face и пытаюсь преобразовать нумерованный список в связный прозаический абзац. Я пробовал несколько моделей, но не смог добиться нужного результата. Я пробовал модели GPT-2, BLOOM и T5, но в каждом
Data Science
Вопрос или проблема У нас есть много специфических для домена данных (более 200 миллионов данных, каждый документ содержит от ~100 до ~500 слов), и мы хотели получить модель языка, специфическую для домена. Мы взяли несколько образцов данных (более 2
Data Science
Вопрос или проблема Я использую предобученную модель DistilBERT от Huggingface с пользовательской классификационной головой, которая почти такая же, как в референсной реализации: class PretrainedTransformer(nn.Module): def __init__( self, target_classes): super().
Data Science
Вопрос или проблема Я новичок на HuggingFace и подгоняю модель BERT (distilbert-base-cased) с использованием библиотеки Transformers, но значение функции потерь не снижается, вместо этого я получаю loss: nan - accuracy: 0.0000e+00.
Data Science
Вопрос или проблема Я пытаюсь обучить модель машинного обучения на данных временных рядов. Входные данные представляют собой 10 временных рядов, которые по сути являются данными с датчиков. Выходные данные – это другой набор из трех временных рядов.