【jeton界】L'équipe DeepSeek-AI a publié le document “DeepSeek-OCR : Contexts Optical Compression”, proposant une nouvelle méthode de compression de contexte de texte long utilisant le modal visuel. Le nombre de paramètres de ce modèle est de 3B.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
6
Reposter
Partager
Commentaire
0/400
pumpamentalist
· Il y a 10h
Cela doit aussi être compressé ?
Voir l'originalRépondre0
LoneValidator
· Il y a 10h
Le bonheur du parti des论文
Voir l'originalRépondre0
ser_ngmi
· Il y a 10h
Enfin rattrapé la vague de l'IA
Voir l'originalRépondre0
TradFiRefugee
· Il y a 10h
La nouvelle génération 3B va To the moon.
Voir l'originalRépondre0
LayerZeroEnjoyer
· Il y a 10h
Encore une compression, cela consomme moins de ressources.
DeepSeek-AI a publié un nouveau modèle OCR avec 3 milliards de paramètres, permettant la compression visuelle de longs textes.
【jeton界】L'équipe DeepSeek-AI a publié le document “DeepSeek-OCR : Contexts Optical Compression”, proposant une nouvelle méthode de compression de contexte de texte long utilisant le modal visuel. Le nombre de paramètres de ce modèle est de 3B.