Clasificación binaria. Los sistemas deben decidir si un tuit dado contiene expresiones o comportamientos sexistas (es decir, si es sexista en sí mismo, describe una situación sexista o critica un comportamiento sexista) y clasificarlo en dos categorías: SÍ y NO.
Language
Spanish
English
URL Task
NLP topic
Abstract task
Dataset
Year
2025
Ranking metric
ICM
Task results
| System | Precision | Recall | F1 Sort ascending | Accuracy | ICM | ICM Norm |
|---|---|---|---|---|---|---|
| EXist2025_hybridSexism | 0.7174 | 0.8117 | 0.7584 | 0.8185 | 0.4396 | 0.7209 |

