• Alexandre Mello Ferreira

MÁQUINAS QUE APRENDEM

A maioria das pessoas que escuta falar do termo Aprendizado de Máquina, uma subárea da inteligência artificial, pensa em robôs. Talvez um robô parecido com o robô do filme Exterminador do Futuro ou Ropocop. Ou ainda algo mais próximo do ser humano, como no filme Eu Robô ou no filme I.A. – Inteligência Artificial.

Contudo, aprendizado de máquina não é algo futurista, mas sim algo muito presente no cotidiano de nossas vidas. Uma das primeiras aplicações que fez uso de técnicas de aprendizado de máquina e que impactou milhões de pessoas foi o filtro de e-mails de spam na década de 90.


Mas o que significa uma máquina aprender algo? Sem entrar em detalhes técnicos ou definições específicas, aprendizado de máquina é a ciência na qual computadores são treinados a identificar padrões em dados e assim aprender com eles. Para entendermos melhor, podemos traçar uma analogia com o modo como uma criança aprende a reconhecer objetos, como uma cadeira, por exemplo. Após ter contato visual com várias cadeiras, a criança passa a fazer uma ideia do que é uma cadeira e assim, das próximas vezes que encontrar um objeto que tenha as mesmas características, mesmo que nunca tenha visto esse objeto antes, saberá se o objeto em questão é uma cadeira ou não.


Essa ideia pode ser utilizada em diversos contextos de nosso cotidiano. Por exemplo, quando escolhemos qual filme assistir em um serviço de streaming, estamos também fornecendo informações valiosas sobre nossas preferencias. O mesmo acontece quando buscamos por um produto na internet, utilizamos nosso cartão bancário ou simplesmente digitamos uma mensagem para um amigo via celular. Todas essas informações podem servir de entrada para um algoritmo que está constantemente aprendendo com os dados que geramos.


Existem diversos tipos de aprendizado e diferentes técnicas para cada um desses tipos. Além disso, os dados normalmente necessitam de um certo nível de tratamento antes de serem realmente utilizados por esses algoritmos. Contudo, uma das técnicas que tem se destacado muito na área são as que usam redes neurais artificiais. Desde a criação do primeiro neurônio artificial em 1943 por Warren McCulloch e Walter Pitts, tentamos criar modelos que sejam inspiradas no funcionamento extraordinário do cérebro humano. Mas assim como um avião, inspirado no voo dos pássaros, não necessita “bater as asas” para voar, um neurônio artificial não tenta imitar um neurônio biológico. A grande vantagem no uso dessas redes artificiais é que transferirmos para a rede a responsabilidade de identificar, em um grande volume de dados, o que é realmente importante para solução de um problema. No exemplo da cadeira, a rede neural artificial poderia ser responsável por encontrar quais são as características que tornam um determinado objeto uma cadeira.


Enfim, apesar dos enormes avanços nos últimos anos, ainda estamos longe da criação de uma solução de aprendizado de máquina que seja boa em todos os sentidos, eficaz tanto para o reconhecimento de objetos em imagens, criação automática de texto, entre outras coisas, capaz de substituir o ser humano. Além disso, podemos dizer que estamos dando passos iniciais em questões críticas como, por exemplo, entender como essas redes neurais chegaram a uma determinada conclusão (X-AI), o que é fundamental para sistemas de riscos críticos (a exemplo dos sistemas de transporte e médico). O que estamos presenciando são avanços tecnológicos que poderão trazer grandes benefícios para nossa sociedade (se utilizadas para o bem, claro) e que consequentemente resultará num mercado de trabalho cada vez mais competitivo e especializado. Esse novo cenário exigirá – e já exige – profissionais altamente qualificados para lidar com problemas complexos e muito heterogêneos ao mesmo tempo.


Referência: Warren S. McCulloch and Walter Pitts, "A Logical Calculus of the Ideas Immanent in Nervous Activity". The Bulletin of Mathematical Biology 5, no. 4 (1943): 115-113.


Prof. Dr. Alexandre Mello Ferreira


Cursos Envolvidos: Ciência da Computação e Engenharia de Computação

ATENÇÃO: O conteúdo deste artigo é de inteira responsabilidade do autor, a instituição reproduz este conteúdo sem interferência ou participação

76 visualizações0 comentário

Posts recentes

Ver tudo