Desenvolvendo algoritmos que um dia podem ser usados contra você

Algoritmos de aprendizagem de máquina nos informam as notícias que lemos, os anúncios que vemos e, em alguns casos, até dirigem nossos carros. Mas há uma camada enganadora nesses algoritmos: eles dependem de dados coletados por seres humanos, e eles cospem nossos piores vieses de volta para nós. Por exemplo, algoritmos de triagem de candidatos a emprego podem rejeitar automaticamente nomes que soam como se pertencessem a pessoas não brancas, enquanto o software de reconhecimento facial é muitas vezes piores em reconhecerem mulheres ou rostos não brancos do que em reconhecer rostos brancos masculinos. Um número crescente de cientistas e instituições estão acordando para essas questões, e falando sobre o potencial da IA para causar danos.

Brian Nord é um desses pesquisadores, que pesando em seu próprio trabalho contra o potencial de causar danos com algoritmos de IA. Nord é cosmólogo da Fermilab e da Universidade de Chicago, onde usa inteligência artificial para estudar o cosmos, e ele está pesquisando um conceito para um “telescópio auto-condução” que pode escrever e testar hipóteses com a ajuda de um algoritmo de aprendizagem de máquina. Ao mesmo tempo, ele está lutando com a ideia de que os algoritmos que ele está escrevendo poderão um dia ser tendenciosos contra ele, e até mesmo sendo usados contra ele. Ele está trabalhando para construir uma coalizão de físicos e cientistas da computação para lutar por mais supervisão no desenvolvimento de algoritmos de IA.