. . "N-\u0433\u0440\u0430\u043C\u043C\u0430 \u2014 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 n \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432. \u0421 \u0441\u0435\u043C\u0430\u043D\u0442\u0438\u0447\u0435\u0441\u043A\u043E\u0439 \u0442\u043E\u0447\u043A\u0438 \u0437\u0440\u0435\u043D\u0438\u044F, \u044D\u0442\u043E \u043C\u043E\u0436\u0435\u0442 \u0431\u044B\u0442\u044C \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0437\u0432\u0443\u043A\u043E\u0432, \u0441\u043B\u043E\u0433\u043E\u0432, \u0441\u043B\u043E\u0432 \u0438\u043B\u0438 \u0431\u0443\u043A\u0432. \u041D\u0430 \u043F\u0440\u0430\u043A\u0442\u0438\u043A\u0435 \u0447\u0430\u0449\u0435 \u0432\u0441\u0442\u0440\u0435\u0447\u0430\u0435\u0442\u0441\u044F N-\u0433\u0440\u0430\u043C\u043C\u0430 \u043A\u0430\u043A \u0440\u044F\u0434 \u0441\u043B\u043E\u0432, \u0443\u0441\u0442\u043E\u0439\u0447\u0438\u0432\u044B\u0435 \u0441\u043B\u043E\u0432\u043E\u0441\u043E\u0447\u0435\u0442\u0430\u043D\u0438\u044F \u043D\u0430\u0437\u044B\u0432\u0430\u044E\u0442 \u043A\u043E\u043B\u043B\u043E\u043A\u0430\u0446\u0438\u0435\u0439. \u041F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 \u0434\u0432\u0443\u0445 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u044B\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u0447\u0430\u0441\u0442\u043E \u043D\u0430\u0437\u044B\u0432\u0430\u044E\u0442 \u0431\u0438\u0433\u0440\u0430\u043C\u043C\u0430, \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 \u0442\u0440\u0451\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u043D\u0430\u0437\u044B\u0432\u0430\u0435\u0442\u0441\u044F \u0442\u0440\u0438\u0433\u0440\u0430\u043C\u043C\u0430. \u041D\u0435 \u043C\u0435\u043D\u0435\u0435 \u0447\u0435\u0442\u044B\u0440\u0451\u0445 \u0438 \u0432\u044B\u0448\u0435 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u043E\u0431\u043E\u0437\u043D\u0430\u0447\u0430\u044E\u0442\u0441\u044F \u043A\u0430\u043A N-\u0433\u0440\u0430\u043C\u043C\u0430, N \u0437\u0430\u043C\u0435\u043D\u044F\u0435\u0442\u0441\u044F \u043D\u0430 \u043A\u043E\u043B\u0438\u0447\u0435\u0441\u0442\u0432\u043E \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u044B\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432." . . . . . . . "Un n-gramma \u00E8 una sottosequenza di n elementi di una data sequenza. Secondo l'applicazione, gli elementi in questione possono essere fonemi, sillabe, lettere, parole, ecc. Un n-gramma \u00E8 di lunghezza 1 \u00E8 chiamato \"unigramma\", di lunghezza 2 \"digramma\", di lunghezza 3 \"trigramma\" e, da lunghezza 4 in poi, \"n-gramma\". Alcuni modelli del linguaggio costruiti a partire da n-grammi sono catene di Markov di ordine n-1." . . "n\u5143\u8BED\u6CD5\uFF08\u82F1\u8BED\uFF1An-gram\uFF09\u6307\u6587\u672C\u4E2D\u8FDE\u7EED\u51FA\u73B0\u7684n\u4E2A\u8BED\u8BCD\u3002n\u5143\u8BED\u6CD5\u6A21\u578B\u662F\u57FA\u4E8E(n-1)\u9636\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u4E00\u79CD\u6982\u7387\u8BED\u8A00\u6A21\u578B\uFF0C\u901A\u8FC7n\u4E2A\u8BED\u8BCD\u51FA\u73B0\u7684\u6982\u7387\u6765\u63A8\u65AD\u8BED\u53E5\u7684\u7ED3\u6784\u3002\u8FD9\u4E00\u6A21\u578B\u88AB\u5E7F\u6CDB\u5E94\u7528\u4E8E\u6982\u7387\u8BBA\u3001\u901A\u4FE1\u7406\u8BBA\u3001\u8BA1\u7B97\u8BED\u8A00\u5B66\uFF08\u5982\u57FA\u4E8E\u7EDF\u8BA1\u7684\u81EA\u7136\u8BED\u8A00\u5904\u7406\uFF09\u3001\u8BA1\u7B97\u751F\u7269\u5B66\uFF08\u5982\u5E8F\u5217\u5206\u6790\uFF09\u3001\u6570\u636E\u538B\u7F29\u7B49\u9886\u57DF\u3002 \u5F53n\u5206\u522B\u4E3A1\u30012\u30013\u65F6\uFF0C\u53C8\u5206\u522B\u79F0\u4E3A\u4E00\u5143\u8BED\u6CD5\uFF08unigram\uFF09\u3001\u4E8C\u5143\u8BED\u6CD5\uFF08bigram\uFF09\u4E0E\u4E09\u5143\u8BED\u6CD5\uFF08trigram\uFF09\u3002" . . "N-Gramm" . . . . . "N\u5143\u8BED\u6CD5" . "986182"^^ . "N-gram" . "Un n-gramma \u00E8 una sottosequenza di n elementi di una data sequenza. Secondo l'applicazione, gli elementi in questione possono essere fonemi, sillabe, lettere, parole, ecc. Un n-gramma \u00E8 di lunghezza 1 \u00E8 chiamato \"unigramma\", di lunghezza 2 \"digramma\", di lunghezza 3 \"trigramma\" e, da lunghezza 4 in poi, \"n-gramma\". Alcuni modelli del linguaggio costruiti a partire da n-grammi sono catene di Markov di ordine n-1." . . . . . . . "Un n-grama es una subsecuencia de n elementos de una secuencia dada. El estudio de los n-gramas es interesante en diversas \u00E1reas del conocimiento. Por ejemplo, es usado en el estudio del lenguaje natural, en el estudio de las secuencias de genes y en el estudio de las secuencias de amino\u00E1cidos. Se puede usar gramas para casi todos los \u00E1mbitos. Por ejemplo, se han usado n-gramas para extraer caracter\u00EDsticas comunes de grandes conjuntos de im\u00E1genes de la Tierra tomadas desde sat\u00E9lite, y para determinar a qu\u00E9 parte de la Tierra pertenece una imagen dada." . . . "In the fields of computational linguistics and probability, an n-gram is a contiguous sequence of n items from a given sequence of text or speech. The items can be phonemes, syllables, letters, words or base pairs according to the application. The n-grams typically are collected from a text or speech corpus. When the items are words, n-grams may also be called shingles." . . "N-\u0433\u0440\u0430\u043C\u043C" . "N-gram \u2013 model j\u0119zykowy stosowany w rozpoznawaniu mowy. N-gramy opieraj\u0105 si\u0119 na statystykach i s\u0142u\u017C\u0105 do przewidywania kolejnego elementu sekwencji. Stosowane s\u0105 g\u0142\u00F3wnie do s\u0142\u00F3w, jak r\u00F3wnie\u017C na przyk\u0142ad do fonem\u00F3w (a tak\u017Ce do zastosowa\u0144 niezwi\u0105zanych z lingwistyk\u0105, jak np. biologia obliczeniowa). G\u0142\u00F3wnymi zaletami n-gram\u00F3w s\u0105 prostota i skalowalno\u015B\u0107. Poprzez zmian\u0119 n mo\u017Cna tym samym schematem otrzymywa\u0107 zar\u00F3wno modele nie wymagaj\u0105ce wielu danych treningowych, ale nie daj\u0105ce du\u017Cej mocy predykcyjnej, jak i modele wymagaj\u0105ce wielu danych ale oferuj\u0105ce du\u017Ce mo\u017Cliwo\u015Bci predykcyjne." . . . . . . . . "N-grama" . . . "N-Gramme sind das Ergebnis der Zerlegung eines Textes in Fragmente. Der Text wird dabei zerlegt, und jeweils aufeinanderfolgende Fragmente werden als N-Gramm zusammengefasst. Die Fragmente k\u00F6nnen Buchstaben, Phoneme, W\u00F6rter und \u00C4hnliches sein. N-Gramme finden Anwendung in der Kryptologie und Linguistik, speziell auch in der Computerlinguistik, Computerforensik und Quantitativen Linguistik. Einzelne W\u00F6rter, ganze S\u00E4tze oder komplette Texte werden hierbei zur Analyse oder statistischen Auswertung in N-Gramme zerlegt." . "N-gramme" . . "Un n-gramme est une sous-s\u00E9quence de n \u00E9l\u00E9ments construite \u00E0 partir d'une s\u00E9quence donn\u00E9e. L'id\u00E9e semble provenir des travaux de Claude Shannon en th\u00E9orie de l'information. Son id\u00E9e \u00E9tait que, \u00E0 partir d'une s\u00E9quence de lettres donn\u00E9e (par exemple \u00AB par exemple \u00BB) il est possible d'obtenir la fonction de vraisemblance de l'apparition de la lettre suivante. \u00C0 partir d'un corpus d'apprentissage, il est facile de construire une distribution de probabilit\u00E9 pour la prochaine lettre avec un historique de taille . Cette mod\u00E9lisation correspond en fait \u00E0 un mod\u00E8le de Markov d'ordre o\u00F9 seules les" . "N-gram" . . . . . . . . . "736742782"^^ . . . . . . . "Un n-gramme est une sous-s\u00E9quence de n \u00E9l\u00E9ments construite \u00E0 partir d'une s\u00E9quence donn\u00E9e. L'id\u00E9e semble provenir des travaux de Claude Shannon en th\u00E9orie de l'information. Son id\u00E9e \u00E9tait que, \u00E0 partir d'une s\u00E9quence de lettres donn\u00E9e (par exemple \u00AB par exemple \u00BB) il est possible d'obtenir la fonction de vraisemblance de l'apparition de la lettre suivante. \u00C0 partir d'un corpus d'apprentissage, il est facile de construire une distribution de probabilit\u00E9 pour la prochaine lettre avec un historique de taille . Cette mod\u00E9lisation correspond en fait \u00E0 un mod\u00E8le de Markov d'ordre o\u00F9 seules les derni\u00E8res observations sont utilis\u00E9es pour la pr\u00E9diction de la lettre suivante. Ainsi un bigramme est un mod\u00E8le de Markov d'ordre 2. \u00C0 titre d'exemple, le bi-gramme le plus fr\u00E9quent de la langue fran\u00E7aise est \u00AB de \u00BB, comme dans l'article \u00AB de \u00BB, mais aussi comme dans les mots \u00AB demain \u00BB, \u00AB monde \u00BB ou \u00AB moderne \u00BB. En traitement du langage naturel il est fr\u00E9quent de parler de N-gramme pour d\u00E9signer des s\u00E9quences de mots et non de lettres." . "N-\u0433\u0440\u0430\u043C\u043C\u0430 \u2014 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 n \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432. \u0421 \u0441\u0435\u043C\u0430\u043D\u0442\u0438\u0447\u0435\u0441\u043A\u043E\u0439 \u0442\u043E\u0447\u043A\u0438 \u0437\u0440\u0435\u043D\u0438\u044F, \u044D\u0442\u043E \u043C\u043E\u0436\u0435\u0442 \u0431\u044B\u0442\u044C \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0437\u0432\u0443\u043A\u043E\u0432, \u0441\u043B\u043E\u0433\u043E\u0432, \u0441\u043B\u043E\u0432 \u0438\u043B\u0438 \u0431\u0443\u043A\u0432. \u041D\u0430 \u043F\u0440\u0430\u043A\u0442\u0438\u043A\u0435 \u0447\u0430\u0449\u0435 \u0432\u0441\u0442\u0440\u0435\u0447\u0430\u0435\u0442\u0441\u044F N-\u0433\u0440\u0430\u043C\u043C\u0430 \u043A\u0430\u043A \u0440\u044F\u0434 \u0441\u043B\u043E\u0432, \u0443\u0441\u0442\u043E\u0439\u0447\u0438\u0432\u044B\u0435 \u0441\u043B\u043E\u0432\u043E\u0441\u043E\u0447\u0435\u0442\u0430\u043D\u0438\u044F \u043D\u0430\u0437\u044B\u0432\u0430\u044E\u0442 \u043A\u043E\u043B\u043B\u043E\u043A\u0430\u0446\u0438\u0435\u0439. \u041F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 \u0434\u0432\u0443\u0445 \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u044B\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u0447\u0430\u0441\u0442\u043E \u043D\u0430\u0437\u044B\u0432\u0430\u044E\u0442 \u0431\u0438\u0433\u0440\u0430\u043C\u043C\u0430, \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u043E\u0441\u0442\u044C \u0438\u0437 \u0442\u0440\u0451\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u043D\u0430\u0437\u044B\u0432\u0430\u0435\u0442\u0441\u044F \u0442\u0440\u0438\u0433\u0440\u0430\u043C\u043C\u0430. \u041D\u0435 \u043C\u0435\u043D\u0435\u0435 \u0447\u0435\u0442\u044B\u0440\u0451\u0445 \u0438 \u0432\u044B\u0448\u0435 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432 \u043E\u0431\u043E\u0437\u043D\u0430\u0447\u0430\u044E\u0442\u0441\u044F \u043A\u0430\u043A N-\u0433\u0440\u0430\u043C\u043C\u0430, N \u0437\u0430\u043C\u0435\u043D\u044F\u0435\u0442\u0441\u044F \u043D\u0430 \u043A\u043E\u043B\u0438\u0447\u0435\u0441\u0442\u0432\u043E \u043F\u043E\u0441\u043B\u0435\u0434\u043E\u0432\u0430\u0442\u0435\u043B\u044C\u043D\u044B\u0445 \u044D\u043B\u0435\u043C\u0435\u043D\u0442\u043E\u0432." . "N-gramma" . . . . "N-Gramme sind das Ergebnis der Zerlegung eines Textes in Fragmente. Der Text wird dabei zerlegt, und jeweils aufeinanderfolgende Fragmente werden als N-Gramm zusammengefasst. Die Fragmente k\u00F6nnen Buchstaben, Phoneme, W\u00F6rter und \u00C4hnliches sein. N-Gramme finden Anwendung in der Kryptologie und Linguistik, speziell auch in der Computerlinguistik, Computerforensik und Quantitativen Linguistik. Einzelne W\u00F6rter, ganze S\u00E4tze oder komplette Texte werden hierbei zur Analyse oder statistischen Auswertung in N-Gramme zerlegt." . . . . . "In the fields of computational linguistics and probability, an n-gram is a contiguous sequence of n items from a given sequence of text or speech. The items can be phonemes, syllables, letters, words or base pairs according to the application. The n-grams typically are collected from a text or speech corpus. When the items are words, n-grams may also be called shingles. An n-gram of size 1 is referred to as a \"unigram\"; size 2 is a \"bigram\" (or, less commonly, a \"digram\"); size 3 is a \"trigram\". Larger sizes are sometimes referred to by the value of n, e.g., \"four-gram\", \"five-gram\", and so on." . . . . "N-gram \u2013 model j\u0119zykowy stosowany w rozpoznawaniu mowy. N-gramy opieraj\u0105 si\u0119 na statystykach i s\u0142u\u017C\u0105 do przewidywania kolejnego elementu sekwencji. Stosowane s\u0105 g\u0142\u00F3wnie do s\u0142\u00F3w, jak r\u00F3wnie\u017C na przyk\u0142ad do fonem\u00F3w (a tak\u017Ce do zastosowa\u0144 niezwi\u0105zanych z lingwistyk\u0105, jak np. biologia obliczeniowa). Zastosowanie n-gram\u00F3w wymaga zgromadzenia odpowiednio du\u017Cego zasobu danych statystycznych \u2013 korpusu. Utworzenie modelu n-gramowego zaczyna si\u0119 od zliczania wyst\u0105pie\u0144 sekwencji o ustalonej d\u0142ugo\u015Bci n w istniej\u0105cych zasobach j\u0119zykowych. Zwykle analizuje si\u0119 ca\u0142e teksty i zlicza wszystkie pojedyncze wyst\u0105pienia (1-gramy, unigramy), dw\u00F3jki (2-gramy, bigramy) i tr\u00F3jki (3-gramy, trigramy). Aby uzyska\u0107 4-gramy s\u0142\u00F3w potrzebnych jest bardzo du\u017Co danych j\u0119zykowych, co szczeg\u00F3lnie dla j\u0119zyka polskiego jest trudne do zrealizowania. Po przeanalizowaniu odpowiednio du\u017Cej ilo\u015Bci tekstu zamienia si\u0119 liczb\u0119 wyst\u0105pie\u0144 na prawdopodobie\u0144stwa poprzez normalizacj\u0119. Umo\u017Cliwia to predykcje kolejnego elementu na podstawie sekwencji n dotychczasowych. Dla j\u0119zyka polskiego przeanalizowanie tekst\u00F3w zawieraj\u0105cych 300 000 000 s\u0142\u00F3w daje dobry model 1-gramowy i satysfakcjonuj\u0105cy 2-gramowy. W celu utworzenia wiarygodnego modelu 3-gramowego potrzebne s\u0105 du\u017Co wi\u0119ksze zasoby. Du\u017Ca ilo\u015B\u0107 przeanalizowanego tekstu podnosi jako\u015B\u0107 modelu, aczkolwiek istniej\u0105 tak\u017Ce metody umo\u017Cliwiaj\u0105ce ulepszenie n-gramowych modeli bez dodatkowych danych, w oparciu o wyg\u0142adzanie zebranych statystyk. G\u0142\u00F3wnymi zaletami n-gram\u00F3w s\u0105 prostota i skalowalno\u015B\u0107. Poprzez zmian\u0119 n mo\u017Cna tym samym schematem otrzymywa\u0107 zar\u00F3wno modele nie wymagaj\u0105ce wielu danych treningowych, ale nie daj\u0105ce du\u017Cej mocy predykcyjnej, jak i modele wymagaj\u0105ce wielu danych ale oferuj\u0105ce du\u017Ce mo\u017Cliwo\u015Bci predykcyjne." . . . . . . . . . . . . . . . . . . . . . . . . "n\u5143\u8BED\u6CD5\uFF08\u82F1\u8BED\uFF1An-gram\uFF09\u6307\u6587\u672C\u4E2D\u8FDE\u7EED\u51FA\u73B0\u7684n\u4E2A\u8BED\u8BCD\u3002n\u5143\u8BED\u6CD5\u6A21\u578B\u662F\u57FA\u4E8E(n-1)\u9636\u9A6C\u5C14\u53EF\u592B\u94FE\u7684\u4E00\u79CD\u6982\u7387\u8BED\u8A00\u6A21\u578B\uFF0C\u901A\u8FC7n\u4E2A\u8BED\u8BCD\u51FA\u73B0\u7684\u6982\u7387\u6765\u63A8\u65AD\u8BED\u53E5\u7684\u7ED3\u6784\u3002\u8FD9\u4E00\u6A21\u578B\u88AB\u5E7F\u6CDB\u5E94\u7528\u4E8E\u6982\u7387\u8BBA\u3001\u901A\u4FE1\u7406\u8BBA\u3001\u8BA1\u7B97\u8BED\u8A00\u5B66\uFF08\u5982\u57FA\u4E8E\u7EDF\u8BA1\u7684\u81EA\u7136\u8BED\u8A00\u5904\u7406\uFF09\u3001\u8BA1\u7B97\u751F\u7269\u5B66\uFF08\u5982\u5E8F\u5217\u5206\u6790\uFF09\u3001\u6570\u636E\u538B\u7F29\u7B49\u9886\u57DF\u3002 \u5F53n\u5206\u522B\u4E3A1\u30012\u30013\u65F6\uFF0C\u53C8\u5206\u522B\u79F0\u4E3A\u4E00\u5143\u8BED\u6CD5\uFF08unigram\uFF09\u3001\u4E8C\u5143\u8BED\u6CD5\uFF08bigram\uFF09\u4E0E\u4E09\u5143\u8BED\u6CD5\uFF08trigram\uFF09\u3002" . . . "Un n-grama es una subsecuencia de n elementos de una secuencia dada. El estudio de los n-gramas es interesante en diversas \u00E1reas del conocimiento. Por ejemplo, es usado en el estudio del lenguaje natural, en el estudio de las secuencias de genes y en el estudio de las secuencias de amino\u00E1cidos. La forma en la que extraemos los gramas se tiene que adaptar al \u00E1mbito que estamos estudiando y al objetivo que tenemos en mente. Por ejemplo en el estudio del lenguaje natural podr\u00EDamos construir los n-gramas sobre la base de distintos tipos de elementos como por ejemplo fonemas, s\u00EDlabas, letras, palabras. Algunos sistemas procesan las cadenas de texto eliminando los espacios. Otros no. En casi todos los casos, los signos de puntuaci\u00F3n se eliminan durante el preproceso. Se puede usar gramas para casi todos los \u00E1mbitos. Por ejemplo, se han usado n-gramas para extraer caracter\u00EDsticas comunes de grandes conjuntos de im\u00E1genes de la Tierra tomadas desde sat\u00E9lite, y para determinar a qu\u00E9 parte de la Tierra pertenece una imagen dada. Para ciertos valores de n los n-gramas tienen nombres especiales. Por ejemplo: \n* Los 1-gramas tambi\u00E9n se llaman unigramas. \n* Los 2-gramas tambi\u00E9n se llaman bigramas o digramas. \n* Los 3-gramas tambi\u00E9n se llaman trigramas." . . . . . . . . . . .