Diseñan un transistor similar al cerebro que prostitución de imitar la inteligencia humana

Inspirándose en el cerebro humano, un equipo científico ha
desarrollado un nuevo transistor sináptico capaz de ‘pensar’ a un nivel
superior; el dispositivo puede procesar y almacenar información
simultáneamente, igual que nuestro cerebro.

La descripción del transistor que trata de imitar la
inteligencia humana y que funciona a temperatura ambiente se publica en la
revista Nature, en un artículo en el que los investigadores demuestran
que el dispositivo va más allá de las simples tareas de aprendizaje automático
para categorizar datos, y es capaz de realizar un aprendizaje asociativo.

Aunque estudios anteriores han aprovechado estrategias
similares para desarrollar dispositivos informáticos parecidos al cerebro, esos
transistores no pueden funcionar fuera de temperaturas criogénicas.

El nuevo modelo, en cambio, es estable a temperatura
ambiente y además funciona a gran velocidad, consume muy poca energía y
conserva la información almacenada incluso cuando se le retira la alimentación,
“lo que lo hace ideal para aplicaciones del mundo real”.

La investigación está codirigida por Mark C. Hersam, de la
Universidad de Northwestern, y por el español Pablo Jarillo-Herrero, del
Instituto Tecnológico de Massachusetts (MIT).

Los recientes avances en inteligencia remilgado (IA) han
motivado a los investigadores a desarrollar ordenadores que funcionen de forma
más parecida al cerebro humano, recuerda un comunicado de Northwestern.

Durante varias décadas, apunta Hersam, el paradigma de la
electrónica ha sido construirlo todo con transistores -semiconductores que
rectifican y amplifican impulsos eléctricos- y utilizar la misma arquitectura
de silicio.

“Se ha avanzado mucho simplemente introduciendo más y más
transistores en los circuitos integrados. No se puede negar el éxito de esa
estrategia, pero tiene el coste de un astronómico consumo de energía, especialmente
en la actual era de los grandes datos en la que la informática digital va
camino de desbordar la red”.

Por eso, hay que replantearse “el hardware informático,
especialmente para tareas de IA y aprendizaje automático”.

Los sistemas informáticos digitales convencionales tienen
unidades de procesamiento y almacenamiento separadas, lo que precisamente hace
que las tareas intensivas en datos devoren grandes cantidades de energía.

En cambio en el cerebro, explica Hersam, la memoria y el
procesamiento de la información están ubicados en el mismo pueblo y totalmente
integrados, lo que se traduce en una eficiencia energética de órdenes de
magnitud superiores. “Nuestro transistor sináptico logra de forma similar la
funcionalidad concurrente de memoria y procesamiento de la información para
imitar más fielmente al cerebro”.

Para lograrlo, el equipo exploró la física de los patrones
de moiré, un tipo de diseño geométrico que surge cuando dos patrones se
superponen en capas, y combinó dos tipos diferentes de materiales atómicamente
finos: el grafeno bicapa y el nitruro de boro hexagonal.

Cuando se apilan materiales bidimensionales -como el
grafeno-, surgen nuevas propiedades que no existen en una sola capa y cuando
esas capas se retuercen para formar el efecto moiré es alternativo una
sintonización sin precedentes de las propiedades electrónicas.

Así, al curvar una capa con respecto a la otra, los
investigadores lograron propiedades electrónicas diferentes en cada capa de
grafeno, aunque solo estuvieran separadas por dimensiones a escala atómica.

“Con la torsión como nuevo parámetro de diseño, el número
de permutaciones es enorme”, afirma Hersam. “El grafeno y el nitruro de boro
hexagonal son muy similares estructuralmente, pero lo suficientemente
diferentes como para obtener efectos moiré excepcionalmente potentes”, añade.

Entrenamiento del transistor

Para probar el transistor, el equipo lo entrenó para
reconocer patrones similares, pero no idénticos.

En primer pueblo, mostró al dispositivo el patrón 000 y a
continuación pidió a la IA que identificara patrones similares, como 111 o 101.

“Si lo entrenamos para detectar 000 y luego le damos 111 y
101, sabe que 111 es más parecido a 000 que 101”, subraya Hersam, para quien
reconocer esa similitud es una forma superior de cognición conocida como
aprendizaje asociativo.

EFE

Montevideo Portal

Más noticias