estrellavr15.bsky.social
@estrellavr15.bsky.social
Nuestro sistema está diseñado para que las respuestas:
🔒 No escalen el conflicto (nada de alimentar al troll)
🔍 Sean verificables (¡adiós a los bulos!)
💬 Adapten el tono según el contexto

Queremos que la IA sea empática, útil, y nunca ofensiva 🧘‍♀️✅
June 17, 2025 at 9:46 PM
⚠️ Pero cuidado: la IA también puede equivocarse.
Puede "alucinar", repetir sesgos o sonar insensible 😬.

Por eso evaluamos cada respuesta y ajustamos ética y precisión 🔧.
June 17, 2025 at 9:46 PM
Y no solo vale para odio 👊
También lo podemos aplicar contra:
📢 Desinformación
📲 Fake news
🌐 Polarización digital

Una IA que informa y cuida.
June 17, 2025 at 9:46 PM
🛠️ El objetivo es que nuestro sistema sea adapte a cualquier situación:
✅ Tono (formal/informal)
✅ Tipo de argumento (ético, lógico, emocional)
✅ Público objetivo (víctima, agresor, testigo)
Es decir, generar una contranarrativa a medida 🪡🧵
June 17, 2025 at 9:46 PM
Para que la IA razone mejor, usamos técnicas basadas en prompting y recuperación de información como:
🔗 RAG: busca información fiable antes de responder
🧠 Chain-of-Thought: piensa paso a paso
🌳 Tree-of-Thought: explora varias ideas antes de elegir
Así evitamos respuestas incoherentes 😅
June 17, 2025 at 9:46 PM
Aquí entra la minería de argumentos ⛏️🧾:
Una técnica para encontrar premisas, conclusiones, falacias en los textos 📚📖

Con ella, entrenamos o mejor dicho les enseñamos a los LLMs para que razonen como un buen debatiente 🗣️🎓.
June 17, 2025 at 9:46 PM
Los mensajes de odio no son aleatorios:
👄 Hay un emisor
🎯 Una intención
🧱 Y estructuras que manipulan, desinforman o atacan

Responder bien exige que la IA comprenda y replique patrones argumentativos.
June 17, 2025 at 9:46 PM
Pero no se trata solo de “ser amable”.
Queremos IA que argumente de verdad: con lógica 🔍, emoción 🧡 o ética ⚖️, según el contexto.
Aquí es donde los LLMs se ponen muy interesantes 👀.
June 17, 2025 at 9:46 PM
Por ello, mi #Tesis explora cómo generar contranarrativas automáticas y cómo los LLMs como ChatGPT o LLaMA 🤖🦙 pueden ayudarnos a entender y construir buenos argumentos en redes sociales 🌐.
Tratando de responder a mensajes ofensivos con cabeza y corazón 🧠❤️. Y en español, por supuesto.
June 17, 2025 at 9:46 PM
Pero… ¿te imaginas contestar manualmente a cada mensaje ofensivo que circula en redes? 😵‍💫
Se genera demasiado contenido en muy poco tiempo y contestar a los mensajes ofensivos supone exponerse a una gran carga emocional.
June 17, 2025 at 9:46 PM
💡 Una alternativa: responder con contranarrativas.
Son mensajes que desmantelan el discurso de odio con datos 📊, empatía 🤝 y argumentos 🧠.
No atacan, no insultan. Dialogan y buscan proporcionar apoyo a los grupos vulnerados con los mensajes ofensivos.
June 17, 2025 at 9:46 PM
Las redes sociales 💬 nos conectan, sí, pero también propagan odio 🧨, estereotipos ❌ y bulos 📉 a una velocidad brutal.
Muchos se escudan en el anonimato 🕵️ y la viralidad 🔁.
¿Censurar estos mensajes? A veces solo alimenta más confrontación
June 17, 2025 at 9:46 PM
📌 Pero hoy quiero hablarte de cómo uso el #PLN para luchar contra el discurso de odio en redes sociales ❌🤬
Mi tesis propone usar modelos de lenguaje (tipo ChatGPT) para generar respuestas respetuosas y argumentadas.
¿Y si en vez de silenciar los mensajes ofensivos… nos enfrentamos a ellos?
June 17, 2025 at 9:46 PM
🧐 El #PLN combina #Lingüística, #Informática e #IA para que las máquinas comprendan y generen lenguaje humano 🗣️💻

Lo usas a diario en:
📱 Asistentes como Siri o Alexa
🌍 Traducción automática
🔍 Búsquedas en Google
🤖 Chatbots y modelos como ChatGPT

Y cada vez es más potente... ¡y más necesario! ⚡📈
June 17, 2025 at 9:46 PM
👋 ¡Hola! Soy Estrella, investigadora predoctoral en Procesamiento del Lenguaje Natural #PLN en @nlp-sinai.bsky.social @universidadjaen.bsky.social
Quiero contarte de qué va mi tesis, participando en el reto de @crueuniversidades.bsky.social y @filarramendi.bsky.social. ¿Empezamos? 🧵 #HiloTesis
June 17, 2025 at 9:46 PM