Tareas
Una tarea es una actividad propuesta con la finalidad de resolver un problema concreto de PLN, generalmente en el marco de una competición. A continuación se muestra información sobre tareas de PLN en Español desde 2013 hasta la actualidad.

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Español, Inglés

- NLP topic: detección de odio
- Dataset: EXIST-2024-ES
- Foro: CLEF
- Competición: EXIST: sEXism Identification in Social neTworks 2024
- Dominio: Social
- Idioma(s): Inglés, Español

HOPE. Multilingual Hope Speech detection - Spanish IberLEF 2023
- NLP topic: detección de odio
- Dataset: HOPE-ES 2023
- Foro: IberLEF
- Competición: HOPE: Multilingual Hope Speech detection
- Dominio: Social
- Idioma(s): Español, Inglés

Sexism classification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés

Sexism identification IberLEF 2021
- NLP topic: detección de odio
- Dataset: EXIST-2021-ES
- Foro: IberLEF
- Competición: EXIST: Sexism detection in Twitter
- Dominio:
- Idioma(s): Español, Inglés

Hate speech detection SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés

Aggressive behaviour and target classification SEMEVAL 2019
- NLP topic: detección de odio
- Dataset: HateEval-ES
- Foro: SEMEVAL
- Competición: SemEval-2019 Task 5: Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter
- Dominio:
- Idioma(s): Español, Inglés

Misogyny identification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés

Misogynistic behavior and target classification IberEVAL 2018
- NLP topic: detección de odio
- Dataset: AMI-ES
- Foro: IberEVAL
- Competición: AMI: Automatic Misogyny Identification
- Dominio:
- Idioma(s): Español, Inglés
Si has publicado un resultado mejor que los de la lista, envía un mensaje a odesia-comunicacion@lsi.uned.es indicando el resultado y el DOI del artículo, junto con una copia del mismo si no está publicado en abierto.