A Microsoft demitiu toda a equipe de ética da sua divisão de inteligência artificial. A equipe, que chegou a contar com 30 membros em seu auge, encerrou o seu período na empresa com apenas sete funcionários. O papel desse setor era “fiscalizar” se as políticas da Microsoft sobre IAs eram colocadas em prática.
A dissolução da equipe de ética e sociedade (nome em tradução literal) integra a demissão em massa anunciada pela Microsoft em janeiro. A previsão da criadora do Windows terminar o “passaralho” até o fim deste mês. Com esses cortes, a empresa mantém mais recursos para investir em inteligência artificial.
Fim da equipe não significa fim da “ética” no Bing Chat
A demissão de toda a equipe de ética não quer dizer que a Microsoft permitirá que o Bing Chat “vire o Coringa”. O Escritório de IA Responsável (ORA, na sigla em inglês) continua criando as diretrizes sobre inteligência artificial. Porém, não terá mais um time dedicado em avaliar se as políticas de responsabilidade são aplicadas nas ferramentas de inteligência artificial.
Como apurou o Plataformer, havia pressão partindo de Kevin Scott, diretor de tecnologia da Microsoft, e Satya Nadella, CEO da big tech, para adotar rapidamente os modelos de IA da OpenAI e entregá-los aos consumidores — e basicamente assim nasceu o Bing Chat.
Na teoria, ao usar o GPT-4, a Microsoft utiliza um produto que já passou pelo crivo de uma equipe de ética para inteligência artificial.
Os membros da equipe dissolvida pela Microsoft seriam, a princípio, incorporados em outros setores. No áudio de um reunião, ao qual o Plataformer teve acesso, realizada no ano passado, um funcionário rebateu John Montgomery, vice-presidente de IA da empresa, pedindo que a ideia de encerrar a equipe fosse reconsiderada.
agora ex-empregado da Microsoft disse que o papel da equipe era importante para evitar que uma IA trouxesse riscos à sociedade. A preocupação era de que sem a fiscalização, a tecnologia causaria impactos negativos.
Um exemplo disso é o fato de que notícias falsas podem ser espalhadas no Bing Chat e ChatGPT, já que a base de dados vem de conteúdos da internet.
Divisões de ética em empresas de tecnologia costumam ser uma faca de dois gumes: por um lado, tende a melhorar um produto e evitar falhas que podem complicar a imagem da empresa. Por outro, elas “atrasam” o lançamento, pois tem o papel de dizer o que precisa mudar.
Com informações: Plataformer e TechCrunch
Via tecnoblog.net