Coreia do Sul Γ© primeiro paΓs a criar lei que regulamenta uso de inteligΓͺncia artificial
A Coreia do Sul tornou-se o primeiro paΓs a implementar formalmente uma lei que regulamenta o uso de inteligΓͺncia artificial (IA) nesta quinta-feira, incluindo disposiΓ§Γ΅es especΓficas para deepfakes. O paΓs, sede das gigantes de microprocessadores Samsung e SK hynix, anunciou sua ambiΓ§Γ£o de se juntar aos Estados Unidos e Γ China como uma das trΓͺs principais potΓͺncias em IA.
Algoritmos viciando jovens: Snapchat faz acordo para evitar julgamento por viciar jovens em redes sociais
Leia tambΓ©m: CEO da Nvidia diz que IA vai criar empregos para eletricistas e encanadores
"A Lei BΓ‘sica sobre IA entra em vigor hoje", comemorou o presidente sul-coreano Lee Jae Myung.
A lei exige que as empresas notifiquem os usuΓ‘rios quando seus serviΓ§os ou produtos utilizarem IA generativa. Ela tambΓ©m exige que rotulem claramente o conteΓΊdo, incluindo deepfakes, que nΓ£o possa ser facilmente distinguido da realidade, entre outros requisitos. A lei, aprovada em dezembro de 2024, visa "estabelecer uma base segura e confiΓ‘vel para apoiar a inovaΓ§Γ£o em IA", afirmou o MinistΓ©rio da CiΓͺncia e TIC da Coreia do Sul em um comunicado.
As violaΓ§Γ΅es serΓ£o punΓveis com multa de atΓ© 30 milhΓ΅es de won (cerca de R$ 109 mil). VeΓculos de comunicaΓ§Γ£o sul-coreanos noticiaram que esta Γ© a primeira lei de regulamentaΓ§Γ£o de IA do mundo a entrar em vigor. Segundo o ministΓ©rio, a iniciativa Γ© a segunda do gΓͺnero no mundo a ser promulgada.
O Parlamento Europeu afirma ter adotado as "primeiras regras de IA do mundo" em junho de 2024, mas elas estΓ£o sendo implementadas gradualmente e sΓ³ serΓ£o totalmente aplicΓ‘veis ββem 2027. No entanto, ao longo do ΓΊltimo ano, a UniΓ£o Europeia permitiu que os Γ³rgΓ£os reguladores proibissem sistemas de IA que representem "riscos inaceitΓ‘veis" para a sociedade, de acordo com sua Lei de InteligΓͺncia Artificial. Isso pode incluir a identificaΓ§Γ£o em tempo real de pessoas usando cΓ’meras em espaΓ§os pΓΊblicos ou a avaliaΓ§Γ£o de risco criminal com base exclusivamente em dados biomΓ©tricos.
Uma "Era Desconhecida"
A Coreia do Sul jΓ‘ anunciou que triplicarΓ‘ seus investimentos em inteligΓͺncia artificial este ano. A nova legislaΓ§Γ£o do paΓs asiΓ‘tico designa dez Γ‘reas sensΓveis que estarΓ£o sujeitas a requisitos mais rigorosos de transparΓͺncia e seguranΓ§a em IA. Essas Γ‘reas incluem energia nuclear, investigaΓ§Γ΅es criminais, avaliaΓ§Γ£o de emprΓ©stimos, educaΓ§Γ£o e saΓΊde.
"Os cΓ©ticos temem as consequΓͺncias regulatΓ³rias da promulgaΓ§Γ£o da lei", disse Lim Mun-yeong, vice-presidente do conselho presidencial para a estratΓ©gia nacional de IA, esta semana. "A transiΓ§Γ£o do paΓs para a IA, no entanto, ainda estΓ‘ em seus estΓ‘gios iniciais, com infraestrutura e sistemas insuficientes", admitiu Lim, acrescentando que "a inovaΓ§Γ£o em IA precisa ser acelerada para explorar uma era desconhecida".
Se necessΓ‘rio, "o governo suspenderΓ‘ as regulamentaΓ§Γ΅es, monitorarΓ‘ a situaΓ§Γ£o e responderΓ‘ adequadamente", afirmou. Os deepfakes (vΓdeos e arquivos de Γ‘udio gerados ou alterados por IA) capturaram a atenΓ§Γ£o global nas ΓΊltimas semanas, apΓ³s o chatbot Grok, da rede social X, provocar indignaΓ§Γ£o e proibiΓ§Γ΅es em diversos paΓses por permitir que usuΓ‘rios criassem imagens sexualizadas de pessoas reais, incluindo menores.
O MinistΓ©rio da CiΓͺncia da Coreia do Sul afirmou que a aplicaΓ§Γ£o de marcas d'Γ‘gua digitais ou identificadores semelhantes ao conteΓΊdo gerado por IA Γ© uma "medida mΓnima de seguranΓ§a para evitar o uso indevido da tecnologia".
"Essa jΓ‘ Γ© uma tendΓͺncia global adotada por grandes empresas internacionais", declarou o ministΓ©rio.
Em outubro, a CalifΓ³rnia promulgou uma lei que regulamenta os chatbots de IA, desafiando a pressΓ£o da Casa Branca para manter a tecnologia fora do alcance da regulamentaΓ§Γ£o. A medida surgiu em resposta Γ s revelaΓ§Γ΅es sobre os suicΓdios de adolescentes que usaram chatbots antes de tirarem a prΓ³pria vida.
A lei da CalifΓ³rnia exige que os operadores implementem salvaguardas "crΓticas" quando os usuΓ‘rios interagem com seus chatbots de IA e abre caminho para que indivΓduos entrem com aΓ§Γ΅es judiciais caso o descumprimento dessas medidas leve a uma tragΓ©dia.