www.linkedin.com/pulse/la-par...
www.linkedin.com/pulse/la-par...
techinformed.com/decolonising...
techinformed.com/decolonising...
Es el resultado de datos incompletos o mal diseñados. Por ejemplo, un estudio de 2019 mostró que los sistemas de reconocimiento facial identifican mal rostros asiáticos y negros 10 a 100 veces más que blancos.
Es el resultado de datos incompletos o mal diseñados. Por ejemplo, un estudio de 2019 mostró que los sistemas de reconocimiento facial identifican mal rostros asiáticos y negros 10 a 100 veces más que blancos.