Amazon está activando el procesamiento de reconocimiento de voz local, prometiendo a los usuarios de algunos de sus últimos altavoces y pantallas inteligentes Echo que pueden hacer que sus comandos de Alexa eviten la nube por completo. La nueva función, anunciada hoy en el gran evento de hardware y servicios de Amazon, aprovecha el chipset AZ1 Neural Edge de cosecha propia del gigante minorista.
Ese procesador Neural Edge fue uno de los primeros desarrollos de Amazon, ya que siguió a Google, Apple y otros en la creación de su propio silicio personalizado. Si bien es posible que el AZ1 no haya podido impulsar toda la experiencia de Alexa, se centró en cambio en funciones específicas de reconocimiento de voz.
Ahora, estamos viendo cómo vale la pena. En los EE. UU., Los dispositivos seleccionados Echo y Echo Show podrán usar Amazon AZ1 para reconocer los comandos de Alexa completamente en el dispositivo. En lugar de tener que pasar el audio a la nube para su procesamiento, se llevará a cabo completamente en el propio Echo.
Inicialmente, además de estar en los EE. UU., Necesitará tener un Echo Show 10 , el modelo con la pantalla giratoria que puede seguir a los usuarios por la habitación, o el Echo de cuarta generación de última generación . Ambos se lanzaron el año pasado. Según Dave Limp de Amazon, vicepresidente de dispositivos y servicios, se ampliará a otros dispositivos a su debido tiempo.
Los propietarios deberán optar por el procesamiento local para que se active. Si habilita esa configuración, el Echo también eliminará automáticamente la grabación de audio después de que se haya procesado.
“La privacidad es una oportunidad para la invención”, argumenta Limp, y Amazon está invirtiendo más en conjuntos de chips Neural Edge más potentes. Hay un nuevo AZ2, también anunciado hoy, que será parte del Echo Show 15.
[Fuente]: slashgear.com
Anónimo.( 28 de setiembre de 2021). Table Echo .[Fotografía]. Recuperado de google.com