Data Science
Производит ли нейронная сеть Word2Vec с методом skip-gram даже контекстные слова?
00
Вопрос или проблема Сначала позвольте мне установить, что такое CBoW и skip-gram. Вы можете пропустить этот раздел, если считаете его ненужным. Фон Мое понимание состоит в том, что Word2Vec представляет собой набор из двух алгоритмов: непрерывный мешок
Data Science
Мобильные модели Word2vec
00
Вопрос или проблема Скажите мне, есть ли w2v модели, которые не требуют словаря. Все, что я нашел в torchtext, сначала хочет узнать словарь build_vocab. Но если у меня есть огромный объем текста, я хотел бы иметь модель, которая работает на уровне фраз.
Data Science
Встраивания товаров
00
Вопрос или проблема Привет, у меня есть список корзин покупок от клиентов, и я хотел бы создать эмбеддинги для продуктов. Например: КОРЗИНА1 = [‘ПРОДУКТ234’, ‘ПРОДУКТ214’, ‘ПРОДУКТ768’] КОРЗИНА2 = [‘
Data Science
Как определить сходство текста на основе обучающих данных?
00
Вопрос или проблема У меня есть набор документов (с 1 по 11), для которых разметка выполнена. Предположим: Документ №: 1,3,5,7 - относится к Типу А Документ №: 2,4,9 - относится к Типу B Документ №: 8,10 - относится к Типу C Документ №: 6,11 - никому
Data Science
Выравнивание тем / моделирование тем
00
Вопрос или проблема Какой самый эффективный метод для определения того, касается ли статья в основном конкретной темы, но без большого объема данных для обучения? Моя задача заключается в том, чтобы определить, насколько документ касается, например, погоды
Data Science
Возможно ли использовать Word2vec для парафразирования текста?
00
Вопрос или проблема После прочтения нескольких статей я не уверен, возможно ли как-то сгенерировать текст с тем же значением (парафразировать его), используя только Word2vec. Я нашел другие подходы, которые используют последовательности пар предложений
Data Science
Как я могу преобразовать свои предсказания в текст после предсказания с использованием RNN?
00
Вопрос или проблема Я создаю теггер частей речи для нашего языка. Я передаю токены слова и теги, используя Tokenizer(). Функции для слова и тега разные. # кодировать Y tag_tokenizer = Tokenizer() tag_tokenizer.fit_on_texts(tags) Y_encoded = tag_tokenizer.
Data Science
Как использовать Word2Vec CBOW в статистическом алгоритме?
00
Вопрос или проблема Я видел несколько примеров использования CBOW в моделях нейронных сетей (хотя я их не понял). Я знаю, что Word2Vec не похож на BOW или TFIDF, так как для CBOW нет единственного значения, и все примеры, которые я видел, использовали нейронные сети.
Data Science
Реализация Cat2Vec X = категориальный, y = категориальный
00
Вопрос или проблема Я пытаюсь преобразовать категориальные значения (почтовые индексы) с помощью Cat2Vec в матрицу, которая может быть использована в качестве входной формы для категориального прогнозирования целевой переменной с бинарными значениями.
Data Science
Как мы получаем выходной слой в скип-грам?
00
Вопрос или проблема Не могли бы вы объяснить, как мы получаем выходной слой в этой архитектуре (векторы [0.2, 0.8, -1.4, 1.2] и [-0.3, 0.2, -0.7, 0.1]). Я понимаю, что предыдущий слой — это встраивания слова “коричневый”
Data Science
Когда вы бы использовали word2vec вместо BERT?
00
Вопрос или проблема Я совершенно нов в области машинного обучения и недавно познакомился с word2vec и BERT. Насколько я знаю, word2vec предоставляет векторное представление слов, но ограничен его словарным определением. Это означает, что алгоритм может
Data Science
Вопрос о тренировочных данных в word2vec – skip-gram
00
Вопрос или проблема У меня есть очень простой вопрос относительно обучающей выборки в word2vec. В реализации skip-gram, обучающая выборка (если я правильно понимаю) генерируется в виде пар слов, как показано на этом изображении: Это, по сути, просто пары векторов one-hot.
Data Science
Модели последовательностей word2vec
00
Вопрос или проблема Я работаю с набором данных, который содержит более 100 000 записей. Вот как выглядят данные: email_id cust_id campaign_name 123 4567 World of Zoro 123 4567 Boho XYz 123 4567 Guess ABC 234 5678 Anniversary X 234 5678 World of Zoro 234
Data Science
Предсказание слова из набора слов
00
Вопрос или проблема Моя задача заключается в том, чтобы предсказать релевантные слова на основе короткого описания идеи. Например, “SQL — это язык, специфичный для домена, используемый в программировании и предназначенный для управления данными
Data Science
Инициализация весов, которые являются поэлементным произведением нескольких переменных.
00
Вопрос или проблема В двухслойных персептронах, которые скользят по словам текста, таких как word2vec и fastText, высоты скрытых слоев могут быть произведением двух случайных переменных, таких как позиционные эмбеддинги и эмбеддинги слов (Mikolov et al.
Data Science
Какое минимальное количество раз слово должно появиться в корпусе для обучения word2vec для получения качественных результатов?
00
Вопрос или проблема При обучении модели word2vec с использованием, например, gensim, вы можете указать минимальное количество раз, которое должно быть увидено слово (параметр min_count). Значение по умолчанию для этого, похоже, равно 5.
Data Science
Обучение Word2Vec на именах вместо предложений
00
Вопрос или проблема У меня есть научная база данных с статьями и соавторами. С помощью этой базы данных я обучаю модель word2vec на соавторах. Цель использования здесь заключается в разрешении неоднозначностей авторов. Мне интересно, можно ли улучшить
Data Science
Модель Word2vec CBOW с негативной выборкой
00
Вопрос или проблема Из этой статьи: В модели vanilla skip gram функция softmax является вычислительно очень затратной, так как требует сканирования всей матрицы выходных эмбеддингов (W_output) для вычисления вероятностного распределения всех V слов, где