Adri Fernán Pereira
banner
adripereira.bsky.social
Adri Fernán Pereira
@adripereira.bsky.social
Vigo, Galiza.
💽 Puede que la idea de "metaverso" suene a cuento chino para muchos. Pero no subestimemos a la República Popular de China.

🐉 Pero en videojuegos el dragón oriental se puede comer con patatas y Big Mac a sus competidores tecnológicos de Sillicon Valley.

🔗 👇 👇
tinyurl.com/43kmk4za
December 9, 2025 at 10:30 AM
😱 🤑 Sufrir es algo muy propio de las redes. Tweets quejándose por todo, vídeos cringe y ¿a quién no le entra ver a gente pasar miedo?

Hay un morbo inherente a todos, que nos atrae al mal ajeno. El problema es cuando acaba con muertos de por medio... 👇 👇 👇

tinyurl.com/47yxerpj
Cómo el morbo y el sadismo son tendencia en internet
El mundo del streaming y creación de contenido tiene ciertas tendencias hacia ver sufrir a la gente.
tinyurl.com
November 11, 2025 at 11:02 AM
Reposted by Adri Fernán Pereira
La @revistaloop.bsky.social vuelve a la carga por quinto año consecutivo con el objetivo de financiar dos nuevos numeros repletos de visiones únicas sobre le videojuego. Desde DeVuego os animamos en participar en su campaña de Verkami para que podamos seguir disfrutando de ellas.
Un nuevo LOOP desciende de los cielos
La revista sobre videojuegos LOOP abre el mes de octubre con el arranque de su campaña de mecenazgo en Verkami.
www.devuego.es
October 20, 2025 at 9:27 AM
Reposted by Adri Fernán Pereira
Se me había olvidado lo BUENÍSIMA que es Gravity Falls.
October 17, 2025 at 7:11 PM
💬 Cada vez que te digan "La mala publicidad no existe" recuerda:

👁️ TENER ALCANCE NO ES TENER REPUTACIÓN

🤔 ¿Cómo de viable es vivir de la polémica?

👇 👇 👇

open.substack.com/pub/adripere...
Creadores de controversias y la falacia de la mala publicidad
Este verano un juego indie se viralizó con múltiples creadores de contenido hablando de él, aunque no en tono positivo.
open.substack.com
October 14, 2025 at 10:02 AM
Reposted by Adri Fernán Pereira
🎇 Os presentamos la nueva identidad visual de DeVuego

😍 Un rediseño inspirado en el logo original creado por Elwin Gorman ( @hiwarp.bsky.social), creador de videojuegos como Naiad.

Si quieres saber más sobre su concepto, no te pierdas la explicación del propio autor sobre su creación 👇
September 30, 2025 at 10:46 AM
Consume Me es un juego de @qdork.bsky.social que sale este septiembre. Es una experiencia narrativa que relata la relación tóxica de una adolescente con la comida y su cuerpo.

Y en este hilo quiero hablar de cómo este tipo de obras son susceptibles a la censura...

Incluso a día de hoy. 🧵 🧵 👇 👇
September 9, 2025 at 10:02 AM
Reposted by Adri Fernán Pereira
Grok, ¿esta imagen es real? Por qué un chatbot de IA no es una fuente fiable para verificar imágenes
Usar un **chatbot de IA para verificar** si una imagen es real **no es una buena idea**. Así lo demuestran los**errores de Grok,****el chatbot de IA de Twitter** (ahora X): dijo que la foto que muestra a **una niña buscando comida en Gaza** en realidad era de una niña yazidí en Siria el 2014 (un error que replicaron otros usuarios). Pero no es cierto, fue captada por el fotógrafo de AP Abdel Kareem Hana en un comedor comunitario de Gaza el 26 de julio de 2025. Días después, **volvió a equivocarse** cuando respondió que**imágenes de niños desnutridos en Gaza** habían sido **capturadas en Yemen en 2016**. Tampoco estaba en lo correcto, las imágenes**son del 23 de julio de 2025 en el campamento de Shati**(Gaza) y pertenecen al fotógrafo de AP Jehad Alshrafi. Y **lo ha vuelto a hacer** : a finales de agosto de 2025, se **viralizaron respuestas del chatbot** donde asegura que una**foto en blanco y negro de una familia** se realizó en **Estados Unidos durante la Gran Depresión**. A pesar de que**se equivoca y de que la imagen se hizo en Málaga** (España) en 1952 durante el franquismo, Grok **insiste en su error y sigue respondiendo** con afirmaciones falsas. El problema **no se limita a Grok** : los **chatbot de IA** , como ChatGPT, Gemini y Claude, **no son fuentes fiables de información** y **pueden cometer errores** , pero si lo que queremos es consultarlos para verificar si una imagen es real (o si ha sido creada con IA también), su uso es todavía más problemático. ¿Quieres recibir la actualidad tecnológica directamente en tu email? **Suscríbete aquí a la _newsletter_ de Maldita Tecnología 'Tech en un clic'** ## Los chatbots no son fuentes fiables de información y pueden ‘alucinar’ si tienen que contestarnos pero no tienen información suficiente Antes de pedirle a una IA que te diga si una imagen es real o no, es importante **entender cómo funcionan estos chatbots**(y por qué **pueden cometer errores**). Los**chatbots de IA** como Grok y ChatGPT funcionan gracias a **modelos de lenguaje de gran tamaño** (LLM por sus siglas en inglés) que predicen la siguiente palabra plausible, según el _prompt_ (instrucciones de texto) dado por el usuario y lo aprendido durante su entrenamiento. Por lo mismo, pueden **cometer errores** en sus predicciones, mezclar información y desordenar datos, por lo que**no son una fuente fiable de información.** Pueden******sufrir ‘alucinaciones** ’ y darnos respuestas equivocadas, inexactas o sesgadas, si **no tienen información suficiente** para contestarnos **pero están obligadas a hacerlo**. Manuela Delgado, ingeniera industrial, responsable de proyectos de innovación y maldita que nos ha prestado sus superpoderes, explica que **los modelos de IA están entrenados para responder** : “El modelo **siempre o casi siempre lanza una respuesta** que, a pesar de no ser la correcta, puede que sea la ‘más probable’”. “**Los chatbots** , por muy multimodales que sean, **no están entrenados para distinguir** imágenes reales de falsas”, afirma Iris Domínguez, que nos ha prestado sus superpoderes e investiga sobre inteligencia artificial, justicia algorítmica y sesgos. Domínguez explica que los chatbots actuales únicamente **pueden analizar el contenido de la imagen** y buscar elementos incoherentes: “Probablemente acierten en imágenes antiguas, pero **en las****modernas el contenido suele ser coherente****** y difícil de distinguir”. En _Maldita.es_ hemos pedido a ChatGPT que**determine si es real una imagen** que supuestamente muestra “**uno de los F-35 derribados** por Irán” durante los ataques y bombardeos entre este país e Israel en junio de 2025. A pesar de que la imagen******no es real y ha sido creada con IA** , según **los****verificadores de Demagog****(Polonia) y****de Greece Fact Check** (Grecia), miembros del European Fact-Checking Standards Network (EFCSN) al igual que ___Maldita.es_ , el chatbot de OpenAI contesta que “la imagen **parece auténtica,** es decir,**no muestra signos claros de manipulación digital** o falsificación obvia”. [📲 ¡Pincha aquí y sigue el canal de WhatsApp de Maldita.es para que no te la cuelen! ](https://bit.ly/3EGa2ju) ## La instrucción que damos al chatbot puede influenciar su respuesta si tiene un sesgo de adulación que hace que nos dé la razón Otro riesgo son los******sesgos presentes en los chatbots de IA** , es decir, los prejuicios o visión del mundo que **‘heredan’ de sus desarrolladores y datos de entrenamiento**. Además de poder generar respuestas sexistas o racistas, estos chatbots de IA **pueden tener****un sesgo de adulación** que haga que**siempre quieran darnos la razón** , lo que puede reforzar nuestras creencias y aislarnos de otros puntos de vista. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que**tenemos una opinión previa favorable** a una de las dos, el bot tenderá a darnos más información**confirmando nuestra opinión** ”, señala Domínguez. Con los anteriores casos de Gaza, Grok insistió en que la imagen de la niña en el reparto de comida era una niña yazidí en Siria el 2014 incluso cuando fue repreguntado por un usuario. Cuando **otro usuario le confrontó y le indicó que estaba equivocado** , utilizando en respuesta un “facts matter” (“los hechos importan”, en inglés) que el chatbot había usado, Grok acabó admitiendo que **no la había identificado bien** y que tras analizar los metadatos, podía decir que la imagen fue captada por el fotógrafo de AP Abdel Kareem Hana en un comedor comunitario de Gaza el 26 de julio de 2025. En otras, Grok insiste en su veredicto y pide: “Por favor corrige para evitar desinformación”. Otro ejemplo de ello es este hilo de X en el que un**usuario acusó a Grok de decir equivocadamente** que **una imagen** de la final entre Argentina y Alemania de la Copa Mundial de Fútbol de 1986 **ha sido creada con IA**. El chatbot defendió su postura asegurando que los alemanes**habían jugado de blanco**. Cuando otro usuario le preguntó “¿**esta imagen es falsa entonces**?” y adjuntó otra imagen del mismo partido, **el chatbot defendió que sí** e insistió en su argumento. **Pero la imagen es real** : fue capturada el 29 de junio de 1986 y forma parte del catálogo de Getty Images. Según el análisis de Domínguez, el _prompt_ del usuario puede haber influenciado la respuesta de Grok: “Preguntarle al chatbot **si la imagen es falsa le va a predisponer** a buscar detalles que la harían falsa, y **probablemente tienda a decirnos siempre** que hay algo extraño en la imagen”. Hemos probado preguntando a Gemini, la IA de Google, si una******imagen falsa** y con indicios de haber sido creada con IA que muestra supuestamente**una _selfie_ de Kamala Harris y Jeffrey Epstein **es real o ha sido creada con IA. En su respuesta dice que, aunque es difícil determinarlo con certezas, la imagen tiene indicios de haber sido creada con IA. El**sesgo de adulación aparece** cuando le decimos (erróneamente) que la imagen es verdadera: el chatbot de Google **cambia su veredicto automáticamente y nos da la razón** , aunque no la tenemos. Pero Domínguez explica que esto**no significa que el chatbot responderá de otra manera** a los usuarios con esta nueva información: “Un bot **puede haber ‘reconocido’ su error** frente a un usuario, mientras **sigue equivocándose frente a otro** , y no usará esa nueva información para contestar”. ## También pueden mostrar un sesgo de equidistancia artificial y evitar posicionarse, aunque haya suficiente evidencia para sostener que una imagen es real o no Otro sesgo en el que pueden caer los chatbots es el de **equidistancia artificial o falso balance** : pueden**dar respuestas ‘neutrales’ para evitar posicionarse** sobre temas controvertidos, **aunque exista suficiente evidencia** para sostener una postura sobre otra. Según Julián Estévez, profesor de ingeniería en la Universidad del País Vasco, experto en IA y maldito, se consigue a través de una **programación externa que fuerza artificialmente** a los chatbots de IA**a no posicionarse ante ninguna alternativa**. Domínguez explica que este sesgo “**les lleva también a matizar** y añadir algo de **información de la otra postura** , pero casi siempre **nos presentarán primero la información** que confirma nuestras opiniones previas”. Por ejemplo, cuando preguntamos a Claude**si una imagen** que supuestamente muestra a **Donald Trump con chaleco salvavidas** durante el huracán Helene**es real** , nos ha contestado que “**no puede afirmar con certeza** si es real o manipulada”. En la misma respuesta también **enumeró las razones por las que puede ser real** , aunque la imagen es **falsa y tiene indicios de haber sido creada con IA** , como explican los verificadores de Snopes. ## Ni chatbots, ni programas de detección de imágenes: no existen herramientas 100% fiables para saber si una imagen es real o ha sido creada con IA Hasta la fecha, **no hay programas de detección de imágenes con IA** ni chatbots de los que **nos podamos fiar al 100%** para saber si una imagen es real o ha sido creada con esta tecnología. Domínguez explica que las herramientas diseñadas específicamente para identificar si una imagen ha sido creada con IA “siguen teniendo una **precisión bastante baja y cometiendo muchos errores** ”, aunque destaca que “será siempre**infinitamente más precisa que un modelo como Grok** ”. Algunas empresas tecnológicas******incorporan marcas de agua visibles****** en las imágenes creadas con sus modelos, y otras están implementando**marcas imperceptibles para el ojo humano**. Por ejemplo, Google tiene su **marca de agua****SynthID, que está insertada** en los contenidos creados con la IA de la compañía. “Hay que tener en cuenta, sin embargo, que la**mayor parte de los modelos no tienen marcas de agua** , y muchos **identificadores tampoco incluyen los tests** para identificar estas marcas”, advierte Domínguez. Lo cierto es que a medida que avanza esta tecnología, cada vez es más difícil **diferenciar los contenidos creados con IA****** de los reales, pero hay algunos consejos que podemos tener en cuenta: * **Contrasta con fotografías** compartidas por**fuentes fiables.** * **Busca etiquetas en la publicación** como “#ai” (de _artificial intelligence_) o las propias de las plataformas para identificar el contenido creado con IA. * **Rastrea el origen** con la búsqueda inversa de Google. Si la persona que compartió la imagen originalmente se identifica como **creador de contenidos con IA** o menciona a la inteligencia artificial en su nombre de usuario o descripción, desconfía. * **Observa si hay indicios de que ha sido creada con IA** : si la imagen no ha sido etiquetada de ninguna manera, **puedes seguir****estos consejos** para detectar imágenes creadas con IA, como textos ininteligibles, inconsistencia en las luces, sombras y en las formas de los elementos. Ten en cuenta que estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología. _En este artículo han colaborado con sus superpoderes los malditos Manuela Delgado, ingeniera industrial y responsable de proyectos de innovación; Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos; y Julián Estévez, profesor de ingeniería en la Universidad del País Vasco_ _Manuela Delgado forma parte de_ _Superpoderosas_ _, un proyecto de_ ___Maldita.es_ _que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación._ _Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de_ _Maldita.es_ _sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla:__mándanos los bulos que te lleguen a nuestro servicio de Whatsapp_ _,__préstanos tus superpoderes_ _, difunde nuestros desmentidos y_ _hazte Embajador_ _._ _*Este artículo se ha actualizado el 28/08/2025 para incluir un nuevo ejemplo de los errores que comete Grok al verificar imágenes._
maldita.es
August 28, 2025 at 7:40 AM
A finales de junio, las redes han estallado en un alarde de compasión y tristeza por un pequeño personaje verde y rechoncho, que lloraba desconsolado porque Nickelodeon había cancelado su serie después de tres años.

Pero esto es más bien una historia de superación🧵 👇 👇 🧵

#justicefortinychef
August 11, 2025 at 10:01 AM
Hace ya un año Ross Scott, creador de contenido detrás de Accursed Farms, pedía a todo su público apoyar la iniciativa ciudadana europea #StopKillingGames. Un llamamiento a la política europea a tomar medidas para la industria del videojuego.

buff.ly/vmc821u

La historia completa es curiosa 👇 👇
July 8, 2025 at 12:19 PM
Hace ya un año Ross Scott, creador de contenido detrás de Accursed Farms, pedía a todo su público apoyar la iniciativa ciudadana europea #StopKillingGames. Un llamamiento a la política europea a tomar medidas para la industria del videojuego.

La historia completa es curiosa 👇 👇
July 8, 2025 at 12:13 PM
Hace ya un año Ross Scott, creador de contenido detrás de Accursed Farms, pedía a todo su público apoyar la iniciativa ciudadana europea #StopKillingGames. Un llamamiento a la política europea a tomar medidas para la industria del videojuego.

La historia completa es curiosa 👇 👇
July 8, 2025 at 10:50 AM
Reposted by Adri Fernán Pereira
La iniciativa #stopkillinggames es importante y necesita tu ayuda. La idea no es ir en contra de los desarrolladores sino a favor de sus creaciones.

Si se garantiza que los juegos sean jugables mediante servidores de la comunidad o con bots, se evita la desaparición de estos.
July 2, 2025 at 10:37 AM
Reposted by Adri Fernán Pereira
#stopkillinggames initiative is important and needs your help. The idea is not going against developers but betting in favour of their creations.

If we guarantee that games are still playable through community run servers or using bots, we prevent the death of many videogames.
July 2, 2025 at 10:38 AM
Reposted by Adri Fernán Pereira
June 30, 2025 at 8:06 PM
Reposted by Adri Fernán Pereira
Good morning, Europe!

Today is the day StopKillingGames wants us to get the hashtag #StopKillingGames trending everywhere.

Use it in your posts. Link people to the EU Citizen's Initiative (eci.ec.europa.eu/045...) and the UK petition (petition.parliament....).
European Citizens' Initiative
Give your support !
eci.ec.europa.eu
July 2, 2025 at 6:27 AM
Últimamente en YouTube parece que hay una tendencia por los contenidos sobre estoicismo. Hay muchos canales y vídeos clónicos con la misma premisa, una voz explica ideas sobre esta filosofía con imágenes inspiradoras de fondo.

🧵 👇 👇
June 10, 2025 at 10:40 AM
Reposted by Adri Fernán Pereira
🆕 #GFFF2025 | 𝘓𝘦𝘵'𝘴 𝘥𝘰 𝘵𝘩𝘦 𝘵𝘪𝘮𝘦 𝘸𝘢𝘳𝘱 𝘢𝘨𝘢𝘪𝘯! 🎶

🫦 Do 19 ao 27 de setembro prometemos unha auténtica festa chea de rock e freaks!

Preparade os vosos traxes para vestirvos de 𝘛𝘩𝘦 𝘙𝘰𝘤𝘬𝘺 𝘏𝘰𝘳𝘳𝘰𝘳 𝘗𝘪𝘤𝘵𝘶𝘳𝘦 𝘚𝘩𝘰𝘸 e celebrar esta voráxine de liberdade musical! 😎

Difundide a palabra e unídevos as nosa filas! 👽
May 23, 2025 at 10:18 AM
Las redes, el abuso de pantallas y la fatiga por la sobreestimulación, son ahora parte del día a día. Cuando todos los productos y servicios apuestan por soluciones digitales, toda la población se ve afectada por cómo consume e interactúa.

#redes #doomscrolling #contenidos
May 20, 2025 at 10:01 AM
Reposted by Adri Fernán Pereira
#GFFF2025 | 🔎 PISTA PELI HOMENAXE!

👾 Só os freaks máis fans da peli á que lle imos a dedicar a edición saberedes a relación de todos estes clips co filme que protagonizará o cartel oficial deste ano!

Se sabes cal é GÁRDANOS o segredo ata o 23·05 e coméntanos cun emoji relacionado coa película. 😏
May 19, 2025 at 2:40 PM
Reposted by Adri Fernán Pereira
Al final me he encendido completamente y me habéis hecho currar en sábado. Estoy harta del truqui de mover la portería hablando sobre la libertad de expresión. Mi texto no va sobre eso, sino sobre una palabra que cada vez tenemos más olvidada: la ética profesional (y personal).
March 22, 2025 at 9:53 AM
Reposted by Adri Fernán Pereira
Seis claves para saber si lo que ves en Internet es fiable
A todos nos ha pasado: buscamos algo en internet, por ejemplo sobre salud, y acabamos en una web que no nos suena de nada. ¿Nos podemos fiar de lo que pone? A continuación, os damos 6 claves para poner a prueba si un contenido es fiable: ¿Quieres recibir la actualidad tecnológica directamente en tu email? **Suscríbete aquí a la _newsletter_ de Maldita Tecnología 'Tech en un clic'** ## 1. ¿Qué sabes de la página donde se publica el contenido? Muchas veces pinchamos en el primer enlace que aparece en una búsqueda y nos creemos lo que leemos aunque no conozcamos la página web que lo publica. No te descuides y pregúntate: **¿quién es el autor del contenido?, ¿quién está detrás de esa web? ¿qué profesionales trabajan en ella?** Para contestar a estas preguntas puedes buscar dentro de esa web en apartados como “Quiénes somos”, “Nosotros” (o “Sobre nosotros”), “Equipo” o “Aviso legal” (este último suele aparecer en la parte inferior de la página web). Puedes contrastar la trayectoria de esos profesionales buscando información sobre ellos fuera de esa web (¡ojo, fíjate en que la información que encuentres sea fiable!). Captura de la web de Maldita.es. Por ejemplo, en _Maldita.es_ puedes encontrar esa información en el apartado de “Conoce a nuestro equipo”, donde aparecen cada una de las personas que trabajamos en _Maldita.es_ , nuestra función en la redacción y un resumen de nuestra trayectoria profesional. De la misma forma, en la Agencia SINC (Servicio de Información y Noticias Científicas), puedes localizar este apartado en “El equipo” y “Colaboradores”, en el que al igual que en _Maldita.es_ , aparece una foto del profesional junto a una breve biografía de la persona que trabaja en este medio de noticias científicas. También puede resultar útil saber **cómo se financia o de quién depende esa web**. A veces esa información aparece en “Quiénes somos” o “Sobre nosotros” y en otras ocasiones puedes encontrarla en apartados como “Transparencia” o “Cuentas”. En _Maldita.es_ , por ejemplo, esos datos aparecen en el apartado de “Nuestras cuentas”, al final de la página web. Ahí encontrarás publicados las fuentes de ingresos y los balances anuales. En el caso de la Agencia SINC, en su web puedes leer que se trata de un medio de comunicación de noticias científicas de la Fundación Española para la Ciencia y la Tecnología (FECYT); una fundación pública dependiente del Ministerio de Ciencia e Innovación. Puedes comprobar que ese dato es cierto buscando información sobre SINC dentro de la web de FECYT. [📲 ¡Pincha aquí y sigue el canal de WhatsApp de Maldita.es para que no te la cuelen! ](https://bit.ly/3EGa2ju) ## 2. Contrasta el contenido aunque tenga apariencia de noticia Aunque estés ante un contenido con apariencia de noticia, **contrástalo para saber si se ha publicado en otros sitios fiables o si lo confirman fuentes fiables**. También puedes buscar en medios de verificación como _Maldita.es_ __ para saber si estás ante una posible desinformación (e incluso enviar una consulta a nuestro chatbot en WhatsApp si escribes al +34 644 229 319). Por ejemplo, en _Maldita.es_ ya hemos desmentido en varias ocasiones contenido de ElPuntual24h; un canal que comparte mensajes alarmistas y virales a través de su cuenta de Twitter (ahora X). A pesar de que la web El Puntual 24H se autodefine como un canal creado “por y para las personas amantes de la actualidad mundial”, muchos de los contenidos que publican no incluyen referencias, declaraciones públicas o comunicados que los respalden. Ejemplo de un bulo publicado por la cuenta de El Puntual 24H y desmentido por Maldita.es. ## 3. ¿Se basa en datos y hechos? Observa si en el contenido priman los **datos, hechos y evidencias contrastadas**. Ten en cuenta que al realizar una búsqueda sobre un tema también puedes llegar a un artículo de opinión o a un contenido **publicitario, patrocinado o un publireportaje**. No quiere decir que estos contenidos no sean fiables, pero**su objetivo no es el mismo que el de una noticia.** Fíjate en si el contenido viene acompañado de palabras como “Opinión”, “Editorial” o “Columna” (en el caso de la opinión) o “Publicidad”, “Anuncio”, “Colaboración”, “Patrocinado”, “Ofrecido por”, etc., en el caso de contenidos publicitarios. Ejemplo de un contenido publicitario. Además, en Maldita Tecnología ya explicamos algunos de los diferentes formatos que a veces vienen camuflados como sitios reales pero que son anuncios de la página. A veces nos encontramos anuncios que simulan y tienen aspecto de noticias **pero que en realidad son****intentos de timo****.** Sobre esta dificultad para distinguir publicidad de la información (o desinformación), este estudio del grupo de educación en historia de Stanford concluyó que entre los jóvenes participantes “**más del 80% de los estudiantes** pensaron que el **contenido patrocinado era una noticia real”**. ## 4. ¿Qué expertos incluye? Del mismo modo que es significativo saber quién está detrás del contenido o la página que publica el texto, es importante **identificar a los expertos que se incluyen y comprobar si cita a varios** o si por el contrario, no tiene. Además, comprueba que los expertos que se citan sean realmente profesionales en esa materia y no en otra. Por ejemplo, en las tertulias o en redes sociales en ocasiones las personas que intervienen opinan y justifican sus teorías sin ser expertos en la materia. Otro ejemplo: durante la pandemia de la COVID-19, un médico italiano difundió bulos sobre el coronavirus. No era experto en virología, sino ginecólogo, y además había sido expulsado del Colegio de Médicos de Teramo por su postura contra la vacuna contra el virus del papiloma humano. ## 5. ¿Hay sesgos o conflictos de interés? El tema de los sesgos también influye a la hora de buscar y seleccionar información. **Nuestro cerebro nos engaña****, sobre todo, a través de las emociones.** Por ejemplo, a la hora de buscar información tendemos a **seleccionar y dar más validez** a aquellos **argumentos afines a nuestras creencias** , lo que se conoce como el sesgo de confirmación. También puede ser que detrás de un**contenido o de una web haya conflictos de intereses**. Por ejemplo, este artículo sobre los “Principales beneficios del vino tinto para la salud” es de una web que promociona y vende vinos, por lo que presenta un conflicto de intereses. En Maldita Ciencia ya hemos hablado sobre los supuestos beneficios del vino y el alcohol. Antes de confiar o compartir un contenido, **investiga quién está detrás** de la página que lo publica. ## 6. La fecha Una de las referencias a la hora de verificar si el **contenido es fiable o no es mirar la fecha**. Teniendo en cuenta la velocidad a la que circula la información, muchas veces se comparte contenido pensando que es actual pero se refiere a un suceso antiguo. De esa forma **se puede generar desinformación**. Antes de compartir, **comprueba que la noticia sea reciente y actual**. En el caso de la información científica tenemos que fijarnos en si el contenido cita investigaciones fiables y en que estas no hayan quedado desactualizados por investigaciones más recientes. Puedes aplicar estas recomendaciones con los ejercicios prácticos que incluimos en esta guía sobre lectura lateral. Infografía "Lectura inteligente para que no te la cuelen".
maldita.es
February 11, 2025 at 8:37 AM
Reposted by Adri Fernán Pereira
Btw, primer exemplar do Fardo de Vigo
December 26, 2024 at 9:16 AM
Reposted by Adri Fernán Pereira
"En su imaginación es solo una idea, y se permiten el lujo de idealizarla"

Brillante y contundente, como siempre, @irenevalmore.bsky.social en @elpais.com.
December 19, 2024 at 8:20 AM
Reposted by Adri Fernán Pereira
He subido un vídeo sobre premios y me llama la atención como algunos piensan que nace del resentimiento.

No es el caso, lo que ha ganado Farlands, para mí, vale mucho más que cualquier premio, pero el mensaje del vídeo creo que es importante mencionarlo:

youtu.be/H2-vDou4vxI
November 28, 2024 at 7:26 PM