Question du test Natural Language Processing - Les bases

La tokenisation est le processus de séparation du texte en mots ou groupes de mots.

Facile

Qu'est-ce que la tokenisation ?

Auteur: ConstantinStatut : PubliéeQuestion passée 380 fois
Modifier
2
Évaluations de la communauté
developer avatar
Ambiguë
Auteur anonyme
25/07/2024
Un token n'est pas forcement un mot ou un groupe de mot
developer avatar
Auteur anonyme
30/07/2024
OK