Paloma ✨
itspaloma.bsky.social
Paloma ✨
@itspaloma.bsky.social
🥰🥰
June 10, 2025 at 7:43 PM
obrigadaaa 💘🫂
June 10, 2025 at 5:52 PM
18/ En resumen 🧾

Buscamos modelos justos, eficientes y explicables para alertar 🚨 del odio online.

Porque nombrar el odio es el primer paso para frenarlo 💪

Y combatirlo no es solo tarea de la IA: es responsabilidad de todas y todos 🤝

#HiloTesis #IA #HateSpeech #NLP #Tesis #LLM #BiasInAI
June 10, 2025 at 9:20 AM
17/ 💬 El odio no siempre es directo.

A veces se disfraza de "chiste" o comparación absurda.

Comparar personas con animales o enfermedades puede parecer exagerado, pero se ha normalizado.

Estamos creando un dataset para detectar este lenguaje 📊
June 10, 2025 at 9:20 AM
16/ En un estudio que presentamos en una conferencia internacional en Italia 🇮🇹 aplicamos esta técnica para crear un modelo más pequeño y más explicativo.

Y no solo detecta odio: también dice por qué.

Transparente, rápido y sostenible 🌍🧠⚖️

📄 link.springer.com/chapter/10.1...
June 10, 2025 at 9:20 AM
15/ Otro reto: los LLMs son gigantes.

Entrenarlos consume mucha energía 🌱

Con knowledge distillation usamos un modelo grande para que uno más pequeño aprenda de él. Más eficiencia, menos impacto.
June 10, 2025 at 9:20 AM
14/ Para eso proponemos "Debias Tuning" 🛠️

Un método para que la personalización (como la memoria del modelo) no influya en temas sensibles.

Así, un mensaje se clasifica como odio o no igual para todas las personas, sin depender de su perfil ⚖️👥
June 10, 2025 at 9:20 AM
13/ ¿Y eso afecta a la detección de odio? Pues sí 📉

Un mismo mensaje puede clasificarse distinto según el perfil del usuario.

Y eso genera desigualdades.

📄 arxiv.org/abs/2505.02252
June 10, 2025 at 9:20 AM
12/ Algunos modelos ya tienen memoria.

Recuerdan con quién hablan, su estilo, idioma, incluso datos demográficos 🧠💾

Suena útil... pero también puede influir en cómo responden.
June 10, 2025 at 9:20 AM
11/ La buena noticia: esto se puede mitigar.

Ajustando el modelo con lo que se conoce como "fine-tuning" o incluyendo reglas claras, reducimos los fallos.

✅ No se trata solo de enseñarles a detectar, sino a no repetir.
June 10, 2025 at 9:20 AM
10/ Pero… ¿y si el modelo empieza a odiar también? 🤔

Analizamos respuestas de varios modelos y... a veces, sí: repiten ideas dañinas que aprendieron en los datos.

Presentamos estos resultados en otra conferencia internacional en Albuquerque, EEUU 🇺🇸

📄 aclanthology.org/2025.naacl-l...
June 10, 2025 at 9:20 AM
9/ 🔗 Por eso creamos MetaHate

Presentamos en una conferencia internacional en Búfalo, EEUU 🇺🇸 un dataset con millones de ejemplos 🧩

Así los modelos aprenden a distinguir el odio real del ruido.

📄 ojs.aaai.org/index.php/IC...
June 10, 2025 at 9:20 AM
8/ Pero no basta con decirle "detecta insultos".

Necesitamos muchos datos, en varios idiomas y formas 📊

El contexto importa: no todo lo que suena mal es discurso de odio 🎯
June 10, 2025 at 9:20 AM
7/ ¿Y cómo lo detectamos?

Con ayuda de grandes modelos de lenguaje como el famoso GPT, LLaMA o Mistral 🧠

Los entrenamos para identificar patrones sospechosos de odio 📚
June 10, 2025 at 9:20 AM
6/ ¿Cómo se manifiesta?

Aparece en textos, memes o imágenes que refuerzan estereotipos negativos.

También circula en grupos y foros radicalizados que amplifican estos mensajes y fomentan y justifican la violencia.
June 10, 2025 at 9:20 AM
5/ El odio en redes no se queda en la pantalla.

El tiroteo de Buffalo (2022) fue precedido por mensajes extremistas.

El atacante, radicalizado online, llevó ese odio al mundo real.

📉 Lo que se dice en redes puede tener consecuencias muy reales.
June 10, 2025 at 9:20 AM
4/ ¿Y cómo se diferencia de otras cosas que vemos en redes? ⚠️

💢 Lenguaje ofensivo ≠ discurso de odio
🎯 Ciberacoso = ataques repetidos a alguien
🤬 Racismo, misoginia... = tipos de odio concretos
💡 El discurso de odio suele tener intención discriminatoria
June 10, 2025 at 9:20 AM
3/ ¿Qué es el discurso de odio?

Según la ONU: mensajes que atacan o discriminan a una persona o grupo por lo que es: su religión, etnia, nacionalidad, raza, color, género, origen, etc.

No es solo una opinión: es lenguaje que alimenta la desigualdad o la violencia 🚫
June 10, 2025 at 9:20 AM
2/ Antes de empezar... aviso importante 🚨

Este hilo habla de discurso de odio: un tema serio que afecta a muchas personas.

🧠 Investigar el odio también es una forma de frenarlo. Gracias #HYBRIDS, #MSCA, @udc.gal y @fic-udc.bsky.social por apoyar esta misión.
June 10, 2025 at 9:20 AM