Datasets
A continuación se muestra información sobre conjuntos de datos textuales en español creados con el objetivo de resolver tareas de PLN. En este caso, se trata de colecciones de textos, generalmente enriquecidas con anotaciones.
-
mCLAN-2025-es
SocialEspañol , Inglés , Árabe , Alemán , Francés , Hindi , PortuguésPublicado en 20254,336Afirmacionesdetección de noticias falsas -
HOMO-LAT-2025
SocialEspañol (Argentina) , Español (Bolivia) , Español (Chile) , Español (Colombia) , Español (Dominican Republic) , Español (Mexico) , Español (Peru) , Español (Uruguay)Publicado en 20257,1007100.00MBdetección de odio -
TA1C 2024
NoticiasEspañolPublicado en 20253,5003500.00MBTuitsdetección de clickbait -
XC-Translate-2025-en-es
DiversosEspañol , Inglés , Árabe , Alemán , Francés , Italiano , Coreano , ChinoPublicado en 20256,148Pares de oracionestraducción automática -
MiSonGyny-2025
EspañolPublicado en 20252,6312631.00MBdetección de odio -
The EA-MT dataset
Español , Inglés , Árabe , Alemán , Francés , Italiano , Coreano , ChinoPublicado en 202557611.00MBtraducción automática -
Mu-SHROOM-2025-es
DiversosEspañol , Inglés , Árabe , Alemán , Farsi , Francés , Hindi , Italiano , Sueco , ChinoPublicado en 2025200Wikipediageneración de texto, factuality -
PastReader-2025
EspañolPublicado en 202512,19512195.00MBtranscripción automática -
MultiClaim-2025-es
SocialEspañol , InglésPublicado en 20257,581Publicaciones de redes socialesdetección de noticias falsas -
PolyHope-2025 V2
SocialEspañol , InglésPublicado en 202529,95729957.00MBTuitsanálisis de sentimiento -
EXIST-2025-es-videos
SocialEspañolPublicado en 20251,8281828.00MBdetección de odio -
semeval-2025-task11-emotions-es
DiversosEspañol , InglésPublicado en 20253,875análisis de sentimiento -
Spa-DataBench
DiversosEspañolPublicado en 2025300300.00MBsistemas de pregunta-respuesta -
MultiClinSum-2025-es
SaludEspañolPublicado en 2025998998.00MBresumen automático -
MentalRiskES-2025
SaludEspañolPublicado en 202532,34232342.00MBelaboración de perfiles
Paginación
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.

