Página Inicial

Sistema físico aprende tarefas sem precisar de um processador

Fonte:https://www.inovacaotecnologica.com.br/ 

Computação analógica

Construir sistemas computacionais que imitem o funcionamento do cérebro - a chamada computação neuromórfica - é um dos caminhos mais promissores para criar hardwares talhados para o aprendizado de máquina e a inteligência artificial.

Mas este é também um caminho cheio de encruzilhadas, que exigem muitas compensações. Por exemplo, as redes neurais artificiais são capazes de aprender tarefas complexas de linguagem e de visão, mas o processo de treinamento de computadores para realizar essas tarefas é lento e requer muita energia.

Treinar máquinas para aprender em modo digital, mas executar as tarefas em modo analógico - o que significa que a entrada varia de acordo com uma quantidade física, como a tensão - pode reduzir o tempo de processamento e a energia gasta, mas emergem pequenos erros que vão se acumulando muito rapidamente.

Para enfrentar esse problema, há cerca de dois anos pesquisadores criaram um circuito elétrico que aprende por conta própria, sem computador, que tem a grande vantagem de que seus erros não se acumulam da mesma forma conforme o tamanho do sistema aumenta. Mas aquele circuito também tinha suas limitações, só conseguindo aprender tarefas lineares, ou seja, aquelas com uma relação simples entre a entrada e a saída.

Agora, a mesma equipe lançou uma nova versão do seu sistema de computação analógica que é rápido, de baixo consumo de energia, escalonável e capaz de aprender tarefas mais complexas e não lineares, incluindo relacionamentos "Ou Exclusivos" (XOR) e regressões.

Aprendizado emergente

O novo sistema incorpora o que os pesquisadores chamam de "rede de aprendizagem local contrastante": Os componentes evoluem por si próprios com base em regras locais, sem conhecimento da estrutura maior. Isso é parecido com o modo como os neurônios do cérebro humano funcionam, sem saber o que os outros neurônios estão fazendo, e ainda assim surge o aprendizado.

É um sistema físico, que não é projetado para realizar uma determinada tarefa, mas se adapta às entradas que recebe, aprendendo a realizar tarefas genéricas, usando regras de aprendizagem locais e dispensando um processador centralizado.

"Ele pode aprender, no sentido de aprendizado de máquina, a realizar tarefas úteis, semelhantes a uma rede neural computacional, mas é um objeto físico," descreve Sam Dillavou, da Universidade da Pensilvânia, nos EUA. E, como o sistema não tem conhecimento da estrutura da rede, ele é muito tolerante a erros.

Em seu artigo descrevendo a inovação, os pesquisadores afirmam que seu sistema de autoaprendizagem "oferece uma oportunidade única para estudar a aprendizagem emergente. Em comparação com sistemas biológicos, incluindo o cérebro, nosso sistema depende de dinâmicas mais simples e bem compreendidas, é precisamente treinável e usa sistemas componentes modulares simples."

"Uma das partes mais malucas sobre essa coisa é que ela realmente aprende por conta própria; nós só a preparamos para que ela comece," disse Dillavou. Essa preparação envolve apenas alimentar a máquina com tensões, que são os dados de entrada. Os transistores que conectam os nós então atualizam suas propriedades com base na regra de Aprendizagem Acoplada, um paradigma de aprendizado que a própria equipe desenvolveu nos últimos quatro anos.

Inteligência inteligível

Uma das características fundamentais desse aprendizado de máquina é que ele foge do padrão tradicional de "caixa-preta da inteligência artificial".

"Como a forma como ele calcula e aprende é baseada na física, ele é muito mais interpretável," disse o professor Marc Miskin. "Você pode realmente descobrir o que ele está tentando fazer porque tem um bom controle do mecanismo subjacente. Isso é único porque muitos outros sistemas de aprendizagem são caixas-pretas, nos quais é muito mais difícil saber por que a rede fez o que fez. "

A equipe acredita que esta segunda demonstração marca a abertura de um campo enorme de pesquisas. Para comprovar isto, eles já estão trabalhando na construção de versões mecânicas de suas redes locais de aprendizagem contrastantes.

"Não está muito claro o que muda à medida que ampliamos um sistema de aprendizagem," disse Miskin. "Se você pensar em um cérebro, há uma enorme lacuna entre um verme com 300 neurônios e um ser humano, e não é óbvio onde essas capacidades emergem, como as coisas mudam à medida que você aumenta. Ter um sistema físico que você pode tornar maior e cada vez maior e maior é uma oportunidade para realmente estudar isso."

Bibliografia:

Artigo: Machine learning without a processor: Emergent learning in a nonlinear analog network
Autores: Sam Dillavou, Benjamin D. Beyer, Menachem Stern, Andrea J. Liu, Marc Z. Miskin, Douglas J. Durian
Revista: Proceedings of the National Academy of Sciences
Vol.: 121 (28) e2319718121
DOI: 10.1073/pnas.2319718121