IBM aumenta la velocidad de los chips AI, llevando el aprendizaje profundo al límite

            
                                                                             
            
            

IBM está presentando un nuevo hardware que brinda eficiencia energética y mejores tiempos de entrenamiento a los proyectos de inteligencia artificial (AI) esta semana en la Reunión Internacional de Dispositivos Electrónicos (IEDM) y la Conferencia sobre Procesamiento de información neuronal Sistemas (NeurIPS), con precisión de 8 bits para sus chips analógicos y digitales para AI.

Durante la última década, el rendimiento informático de la IA ha mejorado a una tasa de 2.5 veces al año, debido en parte al uso de GPU para acelerar las tareas de aprendizaje profundo, la compañía anotó en un comunicado de prensa . Sin embargo, esta mejora no es sostenible, ya que la mayoría del rendimiento potencial de este modelo de diseño, una solución informática de propósito general adaptada a la IA, no podrá seguir el ritmo del hardware diseñado exclusivamente para la capacitación y el desarrollo de la IA. Según el comunicado de prensa, “Escalado de AI con nuevas soluciones de hardware es parte de un esfuerzo más amplio en IBM Research para pasar de una IA estrecha, que a menudo se usa para resolver tareas específicas y bien definidas, a una amplia IA, que abarca diferentes disciplinas para ayudar a los humanos a resolver nuestros problemas más acuciantes “.

VER: AI maliciosa: una guía para líderes de TI (Tech Pro Research)

Aunque la computación tradicional ha sido en una trayectoria de décadas de mayor ancho de direcciones (con la mayoría de hardware de nivel empresarial, profesional y de consumo que usa procesadores de 64 bits), AI va en la dirección opuesta. Los investigadores de IBM están presentando un artículo en NeurIPS que detalla cómo superar los desafíos inherentes a la reducción de la precisión del entrenamiento por debajo de 16 bits. Según el informe, las técnicas brindan “la capacidad de entrenar modelos de aprendizaje profundo con una precisión de 8 bits y al mismo tiempo preservan completamente la precisión del modelo en todas las categorías principales de conjuntos de datos de AI: imagen, habla y texto”, lo que proporciona un tiempo de entrenamiento de dos a cuatro veces más rápido para Redes neuronales profundas sobre sistemas actuales de 16 bits.

    
        

                            

Más sobre inteligencia artificial

                

IBM también está promoviendo el uso de hardware de IA analógico, que tiene un camino de desarrollo opuesto a los sistemas digitales tradicionales. Los diseñadores están trabajando actualmente para reducir la precisión en las soluciones digitales de AI, aunque los sistemas analógicos tienen una precisión intrínseca comparativamente baja, lo que afecta la precisión de los modelos informáticos. La solución más nueva de IBM utiliza la computación en memoria, que la compañía dice como “casi duplicando la precisión de los chips analógicos anteriores, y consumió 33 veces menos energía que una arquitectura digital de precisión similar” en sus pruebas.

La computación en memoria es un modelo emergente de diseño de sistema que apunta a aumentar el rendimiento del sistema al mover las tareas de cómputo más cerca de la RAM. Ya se están utilizando principios similares, sobre todo el uso de discos RAM para evitar los cuellos de botella asociados con la transferencia de datos entre SSD o HDD a RAM, aunque esto no se adapta bien debido a las limitaciones de densidad en DRAM.

En el caso de IBM, tienen un tipo personalizado de memoria de cambio de fase, que según la compañía es adecuada para entornos de bajo consumo de energía, lo que hace posible llevar la inteligencia artificial a los dispositivos de Internet de las cosas (IoT) y aplicaciones de computación perimetral.

Es probable que la computación en memoria sea una tendencia cada vez más generalizada fuera de la IA en los próximos años. La nueva serie de procesadores de Cascade Lake de Intel son las primeras en admitir módulos DIMM Optane, que admiten hasta 512 GB en un solo módulo. Optane, también conocido como 3D XPoint, es un tipo de memoria no volátil que comparte los principios de diseño con la memoria de cambio de fase. Intel está comercializando las soluciones impulsadas por Cascade Lake para aplicaciones de base de datos, que pueden beneficiarse significativamente de las velocidades de transacción más rápidas asociadas con el paso de las transferencias de disco a memoria.

Los grandes descubrimientos para los líderes de tecnología:

  • El desarrollo de AI se ha basado ampliamente en las GPU durante la última década para mejorar el rendimiento, aunque el hardware dedicado de la IA es necesario para los aumentos continuados Rendimiento, según IBM.
  • La computación en memoria es clave para las mejoras de rendimiento en la inteligencia artificial y las aplicaciones informáticas generales.

Vea también

 istock-1002569496.jpg {194590002}
                                            Monsitj, Getty Images / iStockphoto
                                        


Source link

About rasco

Be Happy the future is friendly.

Leave a Reply

Allrights Reserved 2007-2018 - Beone Magazine - powered by rasco