Translate (Online):

Tag Archive | "diseño analogico"

Generar tensiones para controlar MOSFETs de canal N

Tags: , , , , , , , ,


El diseño de modernos sistemas electrónicos requiere la aplicación de transistores MOSFET de canal N, siendo el objetivo configurarlos para manejarlos a voluntad a través de la apertura de sus compuertas con la ayuda de una tensión inducida.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

Los sistemas electrónicos modernos integran transistores MOSFET como una particularidad casi indispensable para que trabajen óptimamente conforme a los actuales estándares industriales, pero hay uno en particular que requiere mayor atención para controlar sus compuertas a través de tensiones generadas.

Generar tensiones para controlar MOSFETs de canal N

Se trata de los transistores MOSFET de canal N que requieren pulsos de corriente para disparar su compuerta, sin embargo, la generación bajo demanda de tales tensiones deben hacerse aplicando unos sencillos pasos y utilizando componentes que resultan fáciles de conseguir.

Por sus características técnicas, los MOSFET de lado alto o canal N regularmente son implementados en el segmento de control de potencia, y algunas de sus aplicaciones se encuentran en sistemas con requerimientos de menor temperatura y más ‘overclocking’, como equipos de cómputo.

Compañías como Gygabyte, fabricante de placas base utilizan módulos controladores con MOSFETs de lado alto.

MOSFET_lado_alto

Diagrama a bloques de un MOSFET lado alto.

 

 

Una alternativa para generar las tensiones deseadas y controlar la compuerta de estos MOSFETs durante un diseño electrónico inicial, es incluir una bomba de carga dobladora de tensión o ‘Doubling Charge Pump’.

En la anterior imagen se muestra el diagrama a bloques de una bomba de carga dobladora de tensión tradicional, donde el pin de CLKOUT del microcontrolador PIC alterna su señal de salida a 1/4 de la frecuencia de oscilación. Cuando el CLKOUT está en baja se polariza D1 y conduce corriente para cargar la bomba (Cpump). Posteriormente cuando el CLKOUT está en alto, el D2 también se polariza y mueve la carga al filtro (Cfilter).

La anterior receta de electrónica crea una tensión al doble de la fuente de alimentación (VDD) menos dos caídas de diodo. A esta condición se le puede sacar provecho utilizando un módulo PWM (Modulador de Ancho de Pulsos) o un pin I/O que “switche” una onda rectangular.

Otro método sugerido es la utilización de un controlador (‘driver’) de FET en combinación con un diodo y un capacitor. Como se aprecia en el siguiente diagrama de bloques del controlador, la fuente de 5V se usa para alimentar al micro en donde el MOSFET tendrá alrededor de 12 + (5-Vdiodo) que impulsarán los dos FETs.

MOSFET_driver

Diagrama de un controlador FET.

 

El C1 se carga a través de D1 a 5V-Vdiodo siempre y cuando M2 esté en ‘alto’ y conectando a C1 a tierra. Cuando M1 se apaga y M1 se enciende un lado de C1 está a 12V y el otro está a 12V +
(5V – Vdiodo). El D2 se enciende y la tensión suministrada al “driver” del FET es
12V + (5V – Vdiodo) – Vdiodo, fórmula necesaria en la que funcionará el canal de alto lado.

Finalmente, otra opción es el uso de un amplificador operacional (OpAmp) donde se pueda aplicar una señal PWM para crear un Conversor de Digital a Analógico (DAC) y algunos componentes externos adicionales.

MOSFET_OpAmp

Referencia para uso de un OpAmp

 

Las conversiones de señales de PWM a señales analógicas involucran el uso de un filtro analógico de pasa-bajos, no obstante, para eliminar las harmónicas no deseadas generadas por la señal del Modulador por Ancho de Pulsos, la frecuencia de este debe ser mayor que el ancho de banda de la señal analógica deseada, tal como se observa en la ecuación siguiente:

MOSFET_ecuación_1

Ecuación 1.

 

 

Por su parte, la R y C se eligen aplicando la siguiente ecuación, y en ambos casos las harmónicas decrecen a medida que el potencial incrementa. En el caso de la segunda, es recomendable seleccionar el valor de R basándose en la capacidad del propio controlador y del cálculo del valor de C de acuerdo a la ecuación final.

MOSFET_ecuación_2

Ecuación 2.

 

Se la atenuación no es suficiente entonces debe aumentarse el K para atenuar suficientemente las harmónicas, pudiendo recurrir a un capacitor o una resistencia muy grande, recordando que cualquier corriente afectará la tensión en el capacitor. En caso de que se opte por agregar un amplificador operacional la tensión analógica trabajará con un búfer mientras que la corriente será suministrada por el Amp Op y no por el capacitor.

Existen fabricantes de componentes electrónicos que en su encapsulado ya cuentan con un MOSFET de alto lado para evitar la colocación manual de uno, como es el caso de la firma Allegro, que posee la serie A4900 de Conductores BLDC trifásicos con controladores de compuertas MOSFET BLDC.

Allegro_ A4900

Allegro_ A4900

 

Ofrece seis controladores de compuerta capaces de impulsar un rango amplio de interruptores MOSFET de potencia o IGBT de canal N. Los controladores de la puerta están configurados como tres unidades de lado alto de alta tensión y tres unidades de lado bajo. Las unidades del lado alto están aisladas para hasta 600 V para permitir la operación con tensiones de alimentación (motor) de puente alto y los controladores de lado alto utilizan un capacitor de arranque para ofrecer el voltaje necesario del controlador de compuerta por encima del voltaje de suministro del motor.

Cada unidad puede controlarse con una entrada de nivel lógico TTL compatible con sistemas de lógica de 3.3 V o 5 V. Está orientada a los mercados industriales y automotrices, ya sea en electrodomésticos, inversores, automotriz EV e híbrido, dirección electrónica asistida (EPS), compresor de A/C, bombas, ventiladores y sopladores, según refiere Allegro en su sitio Web.

El comentario final sobre este artículo es recurrir al diseño manual de un controlador para tensiones de MOSFET de alto lado o canal N si el proyecto requiere características personalizadas que no se puedan conseguir en otros componentes del mercado, pero si el caso es ahorrar tiempo, no solo Allegro cuenta con esta clase de componentes, también firmas como International Rectifier ofrecen módulos que trabajan alineadamente a las especificaciones estandarizadas de sistemas de potencia.

Diseñar cámara de iPhone requiere 800 ingenieros

Tags: , , , , , , ,


Apple mantiene un equipo de casi un millar de especialistas dedicados a la creación y desarrollo de las cámaras multimedia de sus smartphones.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

En un informe publicado por la agencia de noticias CBSNews, el pasado 20 de diciembre, se indica que la cámara del dispositivo iPhone requiere la intervención de al menos 800 ingenieros para ser diseñada.

Diseñar cámara de iPhone requiere 800 ingenieros

La cadena realizó una entrevista con el CEO de Apple, Tim Cook, para su programa nocturno de 60 Minutos, donde el alto ejecutivo de la firma declaró al conductor que encabezó la entrevista que el grupo asignado para el diseño y desarrollo de la cámara del iPhone está conformado por 800 ingenieros y otros especialistas a cargo de Graham Townsend.

De acuerdo a Townsend, en la cámara del iPhone se encuentran alrededor de 200 piezas individuales integradas en un solo módulo, en el cual los colaboradores trabajan arduamente para realizar pruebas de desempeño y validación técnica para simular las condiciones en las que será sometida para trabajar, principalmente en distintos espectros de luminiscencia, tanto natural como como artificial.

Cámara iPhone

Para diseñar la cámara del iPhone Apple utiliza un grupo de 800 ingenieros

“Podemos simular todo eso aquí. Los competidores de Apple ciertamente conducen también muchas de las mismas pruebas, pero el tamaño verdadero del equipo de Apple Cámara te muestra cómo ha aumentado su importancia en el listado de prioridades. Apple ha construido una campaña entera alrededor de la cámara del iPhone, y siempre lo ponemos como un punto destacado a mejorar en cada una de las revisiones del iPhone”, comentó Graham Townsend.

Diseño cámara

Presuntamente la cámara de estos celulares está compuesta por 200 finas piezas

En las nuevas cámaras del iPhone 6 diversas características y capacidades han sido incorporadas al módulo dependiendo del modelo, teniendo las siguientes fichas técnicas:

Cámara iSight

– 8 megapixeles con pixeles de 1.5µ.
– Autoenfoque con Focus Pixels.
– Apertura ƒ/2.2.
– Estabilización óptica de imagen.
– Flash True Tone.
– Lente de cinco elementos.
– Filtro híbrido IR.
– Sensor de iluminación posterior.
– Cubierta de cristal de zafiro para el lente.
– Estabilización automática de imagen.
– HDR automático para fotos.
– Detección de caras.
– Control de exposición.
– Fotos panorámicas (hasta 43 megapixeles).
– Modo ráfaga.
– Enfoque con un toque.
– Geoetiquetado de fotos.
– Modo temporizador.
– Grabación de videos en HD de 1080p (30 fps o 60 fps).
– Video en cámara lenta (120 fps o 240 fps).
– Video en cámara rápida.
– Estabilización cinemática de video.
– Videos con autoenfoque continuo.
– Toma fotos mientras graba videos.
– Zoom de 3x.

Cámara FaceTime HD

– Fotos de 1.2 megapixeles.
– Apertura ƒ/2.2.
– Grabación de videos en HD de 720p.
– Sensor de iluminación posterior.
– HDR automático para fotos y videos.
– Detección de caras.
– Modo ráfaga.
– Control de exposición.
– Modo temporizador.

Entre los perfiles de los ingenieros que conforman este enorme equipo de Apple se encuentran electrónicos, mecatrónicos, especialistas en validación y pruebas de sistemas, desarrolladores de software y personal con posgrados en investigación científica.

Despliega STMicro SoC para medidores inteligentes

Tags: , , , , , , ,


El fabricante de semiconductores STMicroelectronics continúa manifestando fe en el sector de ‘smart grids’ con el lanzamiento de un nuevo SoC llamado STCOMET.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

A pesar de que en diferentes latitudes del globo, la implementación de los medidores inteligentes (‘smart meters’) ha dejado mucho que desear con plataformas poco efectivas que en lugar de optimizar los sistemas los han empeorado, este segmento continúa siendo el objetivo de fabricantes de semiconductores como STMicroelectronics.

Despliega STMicro SoC para medidores inteligentes

Esta compañía ha presentado su más reciente solución denominada STCOMET, compuesta por Sistemas-en-Chips (SoC) desarrollados para permitir la integración de mayores utilidades en los sistemas que comprenden las redes eléctricas inteligentes o ‘smart grid’, así como la incorporación innovaciones que impulsen el despliegue de nuevas fuentes de abastecimiento de energía.

“STCOMET simplifica el diseño de los medidores inteligentes al poseer funciones críticas en un solo chip, incluyendo un complemento moderno de comunicación por línea de energía (PLC, por sus siglas en inglés) y la mayoría de los estándares industriales para ‘smar meters’”, describe el comunicado de STMicroelectronics.

El lanzamiento de esta nueva solución tuvo lugar al tiempo en que la compañía obtuvo las certificaciones G3-PLC, y ‘PRIME2 v1.4-profile 2’, con las cuales cubre bandas con frecuencias superiores a los 500 kHz, incluyendo bandas FCC3. Estas certificaciones colocan a la firma como el proveedor de hardware para ‘smart grid’ más importante de la industria al reunir la mayor cantidad de protocolos industriales para diversos mercados como el europeo.

STCOMET es una familia de 4 dispositivos que pueden ser utilizados por los ingenieros diseñadores de ‘smart meters’para elevar la flexibilidad o escalabilidad tecnológica de los aparatos, y con ello adaptarse a las diferentes demandas de los mercados variados a nivel mundial.

Los modelos STCOMET05 y STCOMET10 poseen una memoria de 512 Kbyte, y otra memoria Flash de 1 Mb, suficientes para soportar los requerimientos de subsistemas como el módulo dedicado de seguridad para privacidad y anti-hackeo, y el bloque PLC.

STCOMET

STMicroelectrinics STCOMET

“La visión del mundo futuro, permitido por el ‘smart grid’, se hace real y más emociónate día a día”, opinó Matteo lo Presti, vicepresidente y gerente general de la división Industrial y Conversión de Energía para STMicroelectronics. “Nuestro SoC Smart meter STCOMET es un importante avance, y combina características sobresalientes con una integración y flexibilidad inmejorables para llevar a cabo la revolución de ‘smart-energy’ en cualquier parte, desde economías desarrolladas hasta mercados emergentes”.

El reporte añade que la integración de las certificaciones industriales en esta nueva solución tecnológica, le ha hecho acreedora de un reconocimiento de parte del gobierno de Francia, el cual ha permitido correr un proyecto piloto en la localidad de Toulouse, para equipar mil casas con tecnología STCOMET.

¿FPGAs embebidos en SoC?

Tags: , , , , , , ,


La compañía fabricante de dispositivos lógicos programables integró FPGAs en Sistemas-en-Chip (SoC) complejos que poseen la flexibilidad de los circuitos con arreglos de compuertas programables.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

La firma francesa de circuitos integrados Menta, reveló una singular propuesta para embeber arquitectura de FPGAs en un SoC y convertirlo en un dispositivo configurable para tareas complejas y los beneficios del arreglo de compuertas programables en campo.

¿FPGAs embebidos en SoC?

A este diseño la compañía ha nombrado eFPGA, o ‘embedded FPGAs’, el cual ha sido creado con el objeto de conferir a los sistemas mayor escalabilidad tecnológica partiendo de la flexibilidad inherente a los chips FPGAs, y al mismo tiempo reducir las labores de rediseño y los gastos aplicados a la reestructura de sistemas.

“Actualmente los SoC están orientados a una gama amplia de aplicaciones, y diversos estándares están cambiando continuamente. El rediseñar un SoC para cada pequeño detalle es muy costoso y consume mucho tiempo. Esto promueve el concepto de contar con un SoC flexible en formas de FPGAs embebidos para futras modificaciones de los diseños”, refiere Menta en su página de Internet.

La empresa agrega que convencionalmente un FPGA está dirigido a realizar pequeñas funciones lógicas como el control de un acelerador local para un módulo procesador, o un bloque que requiere actualizaciones conforme la industria y sus estándares avanzan.

En la siguiente ilustración se muestra el bloque del eFPGA construido para software y hardware IPs, con tecnología independiente, un perfil de integración sencilla para SoC, arquitectura compacta con una densidad lógica robusta y bajo consumo de energía, así como una flexibilidad significativa para una configuración destacada de los sistemas.

eFPGA

Los SoC con estructura FPGA han mostrado excelentes resultados en cuanto a escalabilidad tecnológica, afirma Menta.

“La implementación de sistemas lógicos programables es más lenta, más grande y consume más energía en comparación con el hardware más delicado. Menta ha identificado este problema enteramente y su arquitectura ultra compacta reduce esta brecha y ayuda a los diseñadores de SoC para contar con la flexibilidad de los FPGAs y el rendimiento de un ASIC”, sostiene Menta.

De acuerdo al informe, los chips FPGAs han comprobado utilidad extrema en la construcción de sistemas personalizados de alto desempeño que puedan ser fácilmente modificados. Es posible implementar núcleos de software en la mayoría de los FPGAs, pero a nivel hardware resultan más eficientes.

Cabe mencionar que diversos fabricantes de FPGAs como Microsemi, Altera o Xilinx, han tomado la decisión de incorporar FPGAs en CPUs, adquiriendo excelentes resultados, sin embargo, Menta se propuso robustecer esta línea de arquitecturas mixtas basadas en arreglo de compuertas programables en campo, pero ahora en formato de Sistemas-en-Chip (SoC), entornos más complejos que un CPU al contar con mayores módulos embebidos que potencializan sus capacidades de procesamiento de datos.

eFPGA

Funcionamiento de los eFPGAs

Una de las ventajas de contar con un SoC-FPGA a manera de un bloque lógico, es que las funciones exactas pueden ser definidas después de haberse fabricado, esto permite a su vez que los ingenieros diseñadores y los fabricantes de equipo puedan actualizarlos posterior a la producción, eliminando costos y el tiempo asociados con el retrabajo técnico.

Los diseñadores pueden, por ejemplo, implementar un eFPGA para soportar funciones de programación activa o inactiva en el chip. Para la programación inactiva se puede usar una interface serial con protocolo SPI, o bien, una interface en paralelo para reducir los tiempos de configuración, aunque esto genera el ligero incremento de pistas. En el caso de la programación activa se puede realizar mediante un recurso directo o vía bus.

Gama eFPGA

Familia de dispositivos Menta eFPGA

La programación de los eFPGAs puede ejecutarse con el propio programa de Menta, “Programador Origami”, que soporta lenguajes como HDL, ‘bitstream’ con síntesis, mapeo, o colocación y ruteo, a través de interface AMBA.

De acuerdo a Menta, Origami incluye síntesis para permitir aplicaciones RTL en VHDL, Verilog o System Verilog o SDC, todas estas herramientas especializadas para configurar la arquitectura de procesadores de datos y otros circuitos avanzados.

“Lagarto I” es el primer procesador diseñado en México

Tags: , , , , , , , , , , , , ,


Ingenieros del Instituto Politécnico Nacional (IPN) de México, presentaron este procesador de cómputo construido en territorio mexicano, colocando al país como una nación industrialmente activa en el diseño y desarrollo de hardware.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

México ha pasado de ser un país manufacturero en la industria electrónica, a un actor importante en la innovación de hardware, y es que cada vez son más los emprendedores que lanzan productos competitivos diseñados y desarrollados a nivel nacional.

“Lagarto I” es el primer procesador diseñado en México

Recientemente hablamos sobre PixieBoard, una microcomputadora creada por la empresa mexicana CODE Ingeniería, la cual es descrita por sus diseñadores como un sistema de cómputo de clase mundial.
Ahora tocó el turno a investigadores del Instituto Politécnico Nacional (IPN), quienes dieron a conocer a Lagarto I, considerado por sus creadores como el primer procesador de cómputo hecho en México que habrá de convertirse en el precursor de los nuevos CPUs mexicanos.

En la página de Internet asignada a este proyecto dentro del portal del IPN, se indica que “el desarrollo de los semiconductores y el desarrollo de software, son los dos motores que crean la Industria de las Tecnologías de la Información y las Telecomunicaciones (TIC)”, y que los semiconductores, refieren, “varían ampliamente de acuerdo a su función, Analógicos, Digitales y de Señal Mixta” y de estos los chips para unidades centrales de procesamiento (CPU) son los más complejos de diseñar y manufacturar.

Lagarto I

Lagarto I

En este aspecto, el proyecto Lagarto ha sido creado con el objeto de aportar al entorno académico del país y la investigación científica, además de impulsar las capacidades que tiene la floreciente industria de I+D+i en México para generar Propiedad Intelectual relacionada al diseño de CPUs.

Para retroalimentar a Lagarto, los ingenieros del IPN habilitaron un laboratorio en el Centro de Investigación en Computación del IPN, en la Ciudad de México, donde utilizaron primeramente chips FPGAs para correr sus pruebas conceptuales y determinar la estructura del prototipo “Alligator” que posteriormente sería llevado a una fábrica externa de semiconductores para su materialización.

Cabe mencionar que en este proyecto los ingenieros no solo se abocaron en el desarrollo de hardware, también en el diseño de IPs en Sistemas Operativos basados en Linux para administrar los recursos del CPU, con el cual generan toda una plataforma de integración con tecnología 100% nacional.

En la industria, la aplicación de los CPUs está vinculada con la instauración y administración de las interfaces analógicas de potencia y RF (radiofrecuencia), como es el caso de las consolas de videojuegos, que requieren de chips con recursos de procesamiento multimedia. Para este caso se unifican entornos varios como los lenguajes de descripción de hardware (VDL), el de diseño a gran escala (VLSI) y arquitectura de procesadores (AC).

Al ser componentes con una demanda creciente, los CPUs son ubicuos y se encuentran integrados en una vasta variedad de dispositivos, incluyendo aparatos que suelen almacenar datos importantes y sensibles de los usuarios, por lo que tanto son vulnerables al robo de información.

Los desarrolladores de Lagarto I afirman que la arquitectura del chip cuenta con un perfil robusto de seguridad que evita la filtración de datos.

Lagarto I es uno de los dos procesadores embebidos planeados para presentarse en el período 2015-2016, y según Marco Antonio Ramírez Salinas, profesor del CIC, en su primera etapa se destinarán exclusivamente para actividades docentes y para la generación de recursos especializados, posteriormente evaluarán los resultados y pasarán a una segunda fase de preparación comercial.

Arquitectura de Lagarto I

El procesador mexicano está basado en arquitectura RISC (Computadora con Conjunto de Instrucciones Reducidas) de la gama MIPS, de la compañía Imagination Technologies, empero con adecuaciones que le confieren capacidad para ejecutar instrucciones de 32 bits.

En su fase de creación, los ingenieros politécnicos modelaron el chip con el lenguaje de descripción de hardware conocido como Verilog, utilizado para diseñar sistemas digitales complejos con niveles altos de abstracción, tales como Unidades Aritmético-Lógicas (ALUs), registros y memorias, por mencionar algunos.

IPN

El desarrollo corrió a cargo de ingenieros del Centro de Investigación en Computación del IPN, en la Ciudad de México

El ciclo de desempeño del Lagarto I incorpora la búsqueda y extracción de instrucciones, decodificación, lectura de registros, ejecución, adelantado de valores, escritura de resultados y acceso a memoria.

El doctor Ramírez Salinas detalló que la implementación de chips con arreglo de compuertas programables en campo (FPGAs) fue a razón de la fase conocida como “verificación funcional pre-silicio” del chip, ya que estos dispositivos reducen los costos que de otro modo, requerirían métodos alternos de validación y prueba. “La razón es porque un dispositivo de prueba cuesta 40 mil pesos, mientras que fabricar un chip de silicio o procesador de 0.5 cm2 cuesta aproximadamente 600 mil pesos”, sostuvo el académico.

Hay déficit de profesionales especializados en arquitectura de computadoras

Debido a la falta de personal cualificado en arquitectura de computadoras, el Centro de Investigación en Computación del IPN creó el grupo de Microtecnología y Sistemas Embebidos (MICROSE), encargado de realizar programas de prueba o plataformas experimentales (‘benchmarks’), que fueron piezas fundamentales en la validación de Lagarto I.

Con este hecho además, los politécnicos demostraron que las capacidades regionales para diseñar y desarrollar hardware avanzado son superiores, y contribuyeron a otro objetivo suyo que es emanciparse de las empresas extranjeras posicionadas en México que ofrecen servicios de esta índole.

“En nuestro país existen pocos especialistas en arquitectura de computadoras, por lo mismo no hay tradición en las escuelas para enseñar esta área del conocimiento. Las escuelas más aventajadas ofrecen cursos de aplicaciones con microprocesadores, lo que da como resultado que los estudiantes tengan competencias de usuarios de la tecnología y propiedad intelectual que otros países producen”, refirió el académico del IPN.

En el proyecto participaron los ingenieros Cuauhtémoc Peredo Macías, Osvaldo Espinosa Sosa, Víctor Hugo Ponce Ponce, Herón Molina Lozano y Luis Villa Vargas, integrantes del grupo MICROSE, liderado por el doctor Ramírez Salinas.

El siguiente paso en este proyecto es lanzar el Lagarto II, que contará con una arquitectura superiormente segmentada para extraer, decodificar y ejecutar dinámicamente las instrucciones por ciclos de reloj ‘clocking’.

¿Preparados para implementar el estándar JESD204B?

Tags: , , , , , , , , , , , , , ,


La última revisión del JESD204B intenta simplificar las labores de ruteado e interconexión utilizando circuitos convertidores de alta velocidad y densidad.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

Los convertidores de datos de alta densidad y velocidad son implementados en múltiples aparatos electrónicos, principalmente para alcanzar niveles superiores de ruteado e interconectividad, y si el estándar JESD204 ya era aplaudido por la industria electrónica, la última revisión del JESD2014B pretende simplificar aún más el trabajo de los ingenieros diseñadores.

¿Preparados para implementar el estándar JESD204B?

Creados por el Comité JEDEC, estos estándares han sido bien recibidos por la industria ya que permiten reducir el número de entradas y salidas (I/O) entre los convertidores de datos de alta velocidad y otros dispositivos tales como FPGAs (chips con arreglos de compuertas programables en campo), los cuales son utilizados en una vasta variedad de sistemas modernos.

Al contar con menos interconexiones se logra simplificar las capas y decrecer el tamaño de un sistema sin afectar su desempeño. Estos atributos son importantes para los fabricantes de sistemas de comunicación con arquitecturas GSM, EDGE, W-CDMA, LTE, CDMA2000, WiMAX y TD-SCDMA, ya que deriva en mayor margen de ganancias al evitar invertir en más material para la manufactura de sus productos, tales como transceptores de alta capacidad, sistemas con Radio-Definido por Software, instrumentos portátiles de medición, equipo médico como ultrasonidos, y otras aplicaciones como radares y sistemas de seguridad, por mencionar algunos.

Tipos convertidores

El JESD204b subclase 0 y subclase 1.

Al ver el grado de implementación de estos protocolos, el propio comité JEDEC aceleró la liberación de mejoras en dicho estándar, haciéndolos más aptos para soportar nuevos requerimientos de transferencia de datos.

Los convertidores ADC (analógico-digital) y DAC (digital-analógico) fueron bien recibidos principalmente cuando en las décadas de los 70s y 80s comenzaron aparecer los primeros chips como DSP (Procesador de Señales Digitales), y se contaban con herramientas para construir los sistemas con el desempeño requerido por sus contrapartes analógicas.

Pero a medida que ha pasado el tiempo, y que los sistemas se vuelven más robustos y complejos, han emergido chips compuestos como FPGAs o SoC con características especiales que requieren circuitos convertidores con mayor capacidad para transmitir datos más rápidamente y con buses más amplios.

Los convertidores de datos modernos pueden fácilmente exceder las conversiones en muestreos de Gigas por segundo a 12 o más bits de resolución, lo cual representa un nivel de transferencia superior a mil 500 millones bytes por segundo.

El reto actual para los ingenieros desarrolladores es cuando se diseñan las tarjetas de circuito impreso para conectar los convertidores a DSPs, SoC, o FPGAs. El problema se complica más cuando hay múltiples ADC o DAC que requieren que sus entradas o salidas analógicas tengan fases coherentes, pero para esto se necesitan buses paralelos acoplados con las longitudes eléctricas y latencia determinística, lo que se convierte en una pesadilla de capas.

Pero la última revisión del JESD2014B, promete incrementar los recursos requeridos por los sistemas compuestos de chips complejos y con ello reducir la dificultad en el diseño de los sistemas.

La nueva interface JESD2014B con perfil de pares diferenciales de alta velocidad, mono-direccionales y de corriente de modo-lógico, lo que se traduce en una mejora técnica considerable para encargarse de los datos del propio convertidor, conocidos también como pads o pistas. El número de pistas no está comprometido al número de convertidores como sucede en las interfaces serializadas LVDS. Pero al igual que un PCI Express, el JESD204B provee mayor ancho de banda a la interface, una pregunta que ha estado presente en la mente de muchos ingenieros que se han cuestionado las capacidades del nuevo estándar.

En el nuevo estándar, dependiendo del modo del dispositivo, los pines adicionales serán utilizados para realizar diferentes funciones de conversión de datos, entre los convertidores y el módulo de procesamiento.

Por ejemplo, el DEVCLK es utilizado por el convertidor para derivar señales de reloj internas que son importantes, y mientras el ‘frame-clock’ interno transporta los datos, el reloj de muestreo temporiza la conversión, y finalmente el ‘multi-frame clock’ local (LMFC, por sus siglas en inglés) estabiliza la latencia determinística.

Convertidor pistas

Elementos vinculables al nuevo estándar, como el control de bits

Sincronización convertidor

Convertidor de sincronización multi-frame

3. After the receiver aligns its frame boundary, it triggers JESD204B initial lane synchronization.

En resumen, el nuevo estándar JESD204B, en su última revisión añade elementos que resultan altamente provechosos para el diseño de los sistemas al integrar circuitos integrados más robustos, incluyendo FPGAs, o SoC con requerimientos superiores de buses y ancho de banda.

Los interesados en conocer más sobre este nuevo protocolo, pueden ingresar al sitio de Internet del JEDEC en el siguiente enlace de Internet: https://www.jedec.org/

Industria se alista para integrar GPS en más dispositivos

Tags: , , , , , , , , ,


La compañía de hardware para comunicaciones Spirent, afirma que los ingenieros desarrolladores deben contemplar la integración de GPS o GNSS en más dispositivos de consumo, pues se convertirá en una demanda comercial.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

La electrónica de consumo se dispone a ser el segmento industrial más demandante de tecnología GPS para los siguientes años, según estima Spirent, empresa de equipo de pruebas y soluciones para telecomunicaciones.

Industria se alista para integrar GPS en más dispositivos

A través de un estudio de campo la compañía califica a los segmentos de entretenimiento, comunicaciones y oficina, como tres ejes de la electrónica que impulsarán el despliegue de los Sistemas de Posicionamiento Global, y los cuales serán altamente valorados por los consumidores quienes preferirán aquellos dispositivos que equipen sistema de posicionamiento más preciso y sin fallas.

“Hace tiempo, la experiencia día-a-día de los consumidores para la tecnología de posicionamiento fue a través del sistema de navegación satelital de sus vehículos, o posiblemente equipos sofisticados de excursionismo”, menciona Spirent. “Pero más recientemente ese panorama ha cambiado. Los smartphones, tabletas y otros dispositivos personales están pasando a ser artículos de ubicación, y los miembros del público esperan tecnología común que les muestre su posición como un punto azul en un mapa, instantáneamente, acertadamente y donde sea, ya sea si están bajo un árbol, en la ciudad, o en interiores”, agrega la compañía.

Estos requerimientos ejercen presión a los ingenieros desarrolladores para que estén más capacitados sobre las últimas novedades en tecnología de telecomunicaciones y sean capaces de definir e implementar nuevos regímenes para asegurar que los sistemas como GPS, GNSS o híbridos, trabajen conforme a las especificaciones industriales más complejas.

Pero en vista del aparecimiento de segmentos emergentes como el Internet de las Cosas o electrónica vestible, los objetos han de contar con sistemas de posicionamiento, y muestra de esto son todos los satélites que ya están orbitando la Tierra o que serán lanzados al espacio en los próximos años tales como: GLONAS (Rusia), Beidou Compass o “BeiDeou-2” (China-Asía Pacífico), Galileo (Unión Europea), QZSS (Japón).

Los anteriores sistemas están también previstos para que, como meta mundial, para el año 2020 se despliegue formalmente el estándar de multi-posicionamiento multi-GNSS y con ello se desahogue la carga creciente de datos generada por los dispositivos con GPS. De esta forma Spirent se adelanta y comparte algunas sugerencias a fin de que los ingenieros diseñadores puedan aplicarlas.

Tecnología GNSS

Sistemas de posicionamiento global y GNSS

Cabe mencionar que el cálculo de ubicación desde las señales de un satélite es solo una manera para otorgar a los dispositivos la habilidad de arrojar su posición relativa en tiempo y espacio, pero también se puede realizar haciendo uso de otras fuentes que trabajan con sensores de incercia, tales como redes WiFi, redes de telefonía celular y barómetros miniaturizados, por mencionar algunos, no obstante, estas son locales o con rango limitado, sobre los cuales el GPS adquiere más ventaja.

De acuerdo a los especialistas de Spirent, las fuentes independientes, autoritativas y fijas de datos en tiempo y posición confieren a la tecnología GNSS ventajas obvias particularmente en donde los dispositivos no son conscientes de su posición de inicio o de los efectos acumulativos de errores.

La combinación de tecnologías inalámbricas hace posible que un dispositivo pueda ser localizado de una forma más precisa, pero cada vez más ingenieros recurren a la tecnología GNSS para evitar que su rastreo se vea interrumpido debido a la señal débil o limitada de los satélites, una debilidad de los sistemas de posicionamiento global, por lo que se recurre a celdas basadas en WiFi u otra tecnología de red fija.

Siguiendo esta tendencia pues, una de las fases más importantes en el ciclo de desarrollo de un aparato con posicionamiento global es la validación y pruebas para asegurarse que trabaje con los múltiples estándares de comunicación, y en esta parte el documento Spirent señala que el hecho de que la actual generación de consumidores ha llegado a confiar en tecnología GPS a tal grado que se ha vuelto sumamente estricta para tolerar cálculos pobres de ubicación, cobertura o desempeño de estos sistemas, aún continúa dejándolo como la comunicación preferencial.

Pruebas GNSS
Validación y pruebas de sistema GNSS

“Debido a que la gente ha confiado en la tecnología de posicionamiento, la reputación de los fabricantes depende no solo de que los dispositivos sean capaces de suministrar una ubicación, sino también que la provean acertadamente, consistentemente y continuamente en un gran rango de condiciones”, comenta el documento.

Al visualizar que esta tecnología no solo ha sido exclusiva de la telefonía celular, otros sectores comerciales incluyendo el financiero o médico, han desarrollado numerosos dispositivos que lo integran. Por ejemplo, en el caso del financiero, actualmente diversos sistemas portátiles como puntos de ventas o terminales de cobro utilizan GNSS para llevar a cabo pagos con plásticos o tarjetas bancarias, mientras que en el sector de cuidados de la salud, otros módulos vestibles son equipados con estos sistemas para ofrecer monitoreo directo entre doctor y paciente.

Nueve características de rendimiento en sistemas GPS o GNSS

Spirent considera importante establecer nueve parámetros medibles para otorgar la etiqueta de desempeño a un sistema de posicionamiento. “La competitividad de cada dispositivo para su propósito dependerá de la operación exacta y sus condiciones funcionales. Naturalmente, por lo tanto, cada régimen de prueba será sutilmente diferente”, añade la firma.

La anterior afirmación sostiene que a pesar de que cada sistema de posicionamiento posee un objetivo claro o comercial para el cual está diseñado, las nueve características de pruebas que a continuación se describen, están sujetas a un criterio ecuánime sobre la experiencia de los usuarios y su familiarización con esta tecnología.

Arranque en frío.- De acuerdo a la compañía, particularmente esta prueba es importante debido a que es el primer rasgo que califica un usuario. En pocas palabras, el arranque en frío es la capacidad de un dispositivo para adquirir rápidamente un bloqueo satelital desde cero, es decir, sin datos de almanaques o efemérides, y sin memoria de su tiempo y espacio. Para esto, el ingeniero desarrollador debe someterlo a varias pruebas y principalmente en zonas con kilómetros de distancia.

Arranque en calentamiento.- Esta prueba sirve para identificar qué tan rápido un receptor puede hallar una señal recientemente utilizada. En ejemplo, el almanaque y la bitácora de tiempo están almacenados en la memoria y ubicación de un dispositivo que está dentro de 100 km de cuando se usó la última vez, pero los datos de efemérides son desconocidos.

Arranque en caliente.- Esta maniobra permite recuperar la experiencia de usuario, es decir, si ellos utilizan el dispositivos de manera constante. La ubicación está cerca de donde el receptor estuvo la última vez, y la memoria tiene fecha completa, así como los datos del almanaque y las efemérides, lo único que hace falta es una señal.

Simuladores GNSS
Simuladores GNSS

Respuesta de adquisición.- Este elemento define la potencia mínima de la señal recibida con la que un receptor puede establecer contacto satelital. “Esto es importante para prevenir la frustración del usuario”, afirma Spirent.

Respuesta de monitoreo.- Mide la potencia de señal que un receptor requiere para mantener enlace satelital, sumamente importante ya que este recurso destacará en caso de errores durante el diseño del rastreador.

Tiempos de readquisición.- El documento refiere que cuando la señal satelital está perdida, por ejemplo, al ir circulando por un túnel, debajo de un puente o en espacios interiores, esta prueba mide qué tan rápido el receptor encuentra la señal al terminar la pérdida.

Precisión de navegación estática.- En esta prueba se extrae la cercanía que un receptor reportó sobre su posición real. Para esta medición se sugiere realizar en entornos controlados a fin de que las variables externas influyan en los resultados y así ejecutar pruebas más reales posibles.

Precisión de navegación dinámica.-A menudo se realizan series de mediciones mientas que el dispositivo se mueve a través de 1, 2 ó 3 ejes. Esta prueba puede también incluir cambios en velocidad y dirección.

Interferencias RF.- Al ser un sistema de comunicación la prueba de interferencia electromagnética no debe faltar. De acuerdo a los especialistas de Spirent, la tecnología GNSS utiliza señales de baja potencia, por lo que los receptores son particularmente vulnerables a la interferencia a fenómenos como interrupciones de señal o más usualmente el ruido. Esta prueba mide la susceptibilidad del sistema a problemas de cualquier radio dado.

Una de las herramientas importantes son los simuladores de señal, los cuales ahora también abarcan tecnología GNSS. “Un buen simulador GNSS para electrónica de consumo debería ser capaz de otorgar precisión consistente de señal, incluso a extremos bajos”, menciona Spirent. “Por ejemplo, algunos generadores de señal RF multiusos que no son diseñados para posicionamiento satelital, les cuesta trabajo mantener precisión debido a que el nivel de potencia tiende a irse para para abajo”.

Es importante reconocer que el diseño de sistemas de comunicación con GPS o GNSS debe ser cuidadosamente proyectado, debido a que un descuido puede ocasionar lecturas pobres de posicionamiento, lentitud operativa y otras fallas que destinen al fracaso a un producto contemplado dentro de sectores emergentes.

Amplificadores clase D reducen EMI en portátiles

Tags: , , , , , , , , , , ,


La Interferencia Electromagnética (EMI) en dispositivos portátiles (PDAs) es un problema que impacta en su rendimiento. El uso de amplificadores clase D es un método para reducir esta afectación.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

En el diseño de dispositivos portátiles como smartphones, los ingenieros ven como uno de los principales enemigos la Interferencia Electromagnética (EMI) ya que este fenómeno afecta la calidad de las comunicaciones y el rendimiento de los propios aparatos al generar fallas de audio, pero existe una solución para combatir este problema haciendo uso de amplificadores de conmutación clase D.

Amplificadores clase D reducen EMI en portátiles

La compañía diseñadora de dispositivos semiconductores Maxim Integrated Circuits cuenta con un estudio de carácter técnico en el que se vierten pasos sugeridos por ingenieros especializados de esta firma para reducir la Interferencia Electromagnética (EMI) y mantener así una óptima eficiencia en dispositivos portátiles (PDAs) implementando amplificadores clase D.

El documento menciona que los amplificadores de conmutación clase D son tradicionalmente conocidos por ser eficientes, y debido a su perfil se convierten en excelentes candidatos para utilizarse en PDAs que requieren de una mayor duración de sus baterías y una baja disipación térmica. Sin embargo, el EMI es un tema que se acompaña de la topología con amplificadores clase D. Por ejemplo, en su uso –sostiene el documento- la limitación de emisiones activas reduce las radiaciones y permite operaciones sin filtro, lo cual permite a los ingenieros crear pequeñas pero eficientes aplicaciones portátiles con EMI bajo y controlado.

EMI en circuitos

La interferencia electromagnética o EMI es un fenómeno que impacta el
rendimiento de circuitos eléctricos.

Es importante apuntar que a diferencia de las resistencias activas utilizadas en los modos lineales de los amplificadores clase AB, los amplificadores clase D utilizan un modo conmutado de los transistores para regular la entrega de potencia. Además, el amplificador cuenta con algunas características como poca fuga de energía, ventaja que deriva en el uso de menos disipadores de calor.

Esquemático de un amplificador de conmutación clase D convencional

Esquemático de un amplificador de conmutación clase D convencional

En el caso de que el ingeniero requiera de una conversión de voltaje, la frecuencia alta de conmutación permite que los transformadores grandes para sistemas de audio -que en muchas ocasiones son estorbosos- sean reemplazados por pequeños inductores de potencia. Para el caso de los filtros LC pasa-bajo, su función es suavizar los pulsos y restaurar la forma de la señal en la carga. Estos atributos son reconocidos por los ingenieros desarrolladores quienes regularmente los utilizan para reforzar el sonido, pues se requiere de un alto voltaje de salida.

Maxim señala que la creciente proliferación de dispositivos electrónicos portátiles (PDAs) en el segmento de la Electrónica de Consumo tales como smartphones, tabletas y reproductores multimedia, entre otros, demandan mayor calidad en la amplificación de sonido. Estos amplificadores de sonido son necesarios al mismo tiempo para extender la vida de las baterías y reducir el consumo de energía, asimismo para mantener el sistema en óptimas condiciones y con niveles bajos de Interferencia Electromagnética (EMI).

También es importante resaltar que los ‘amps’ D ofrecen aproximadamente el 90% de eficiencia comparado con el 50% ofrecido por los ‘amps’ clase AB. El hecho de que los D ofrezcan mayor eficiencia es importante para los PDAs pues se traduce en menores niveles de consumo de energía, obteniendo una buena disipación térmica, extendiendo la vida de las baterías y ahorrando espacio físico en las placas base.

La Interferencia Electromagnética o EMI como perturbación, afecta principalmente a los circuitos (ICs) y otros sistemas electrónicos de un sistema, y es causado por fuentes de radiación electromagnética externa. Esta perturbación puede interrumpir, degradar o limitar el rendimiento de ese sistema o los subsistemas del mismo.

La compañía reconoce que ante esta situación los ingenieros deben conocer los estándares EMI dispuestos por la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) que están asignados para productos electrónicos como PDAs sujetos a las normatividades industriales EMI.

“Administrar y controlar el EMI es incluso más complejo debido a que la estructura de los dispositivos es cada vez más pequeña”, indica Maxim. “La limitación de espacio fuerza a los diseñadores a eliminar filtros de salida y sistemas de protección que ayudan a tareas de supresión de EMI. No obstante, la eliminación de tales componentes para ahorrar espacio hace que el EMI sea mucho más complejo de controlar”.

El artículo señala que para entender cómo el EMI es generado en los amplificadores de audio clase D, es necesario comprender la arquitectura del mismo. Los amplificadores clase D modulan las formas de onda triangulares de alta frecuencia con una señal-audio de entrada tal y como se muestra en la siguiente ilustración:

Esquematico

En esta figura aparece un diagrama de bloques simplificado de un amplificador básico clase D con medio puente de modulador por ancho de pulsos (PWM), dos salidas MOSFET y un filtro baja-paso (LF y CF) para recobrar la señal de audio amplificada de una onda cuadrada de salida

Regularmente la bocina incorpora un filtro de pasa-bajo, el cual remueve altas frecuencias y recobra al mismo tiempo las formas de onda originales del audio. Esta propuesta trabaja bien debido a que el amplificador clase D está continuamente cambiando en modos on/off. Consecuentemente los dispositivos (PDAs) que utilizan los amplificadores D pierden menos energía que aquellos que equipan los modelos AB donde las salidas están parcialmente encendidos casi todo el tiempo. El artículo de Maxim sugiere dirigirse a la nota número 3977 bajo el nombre “Amplificadores Clase D: Fundamentos de Operación y Desarrollos Recientes”, que se encuentra en el mismo sitio de Internet para hallar más información detallada sobre este factor.

Los bordes de las ondas cuadradas producen componentes de alta frecuencia que regularmente son radiados por las tarjetas de circuito impreso (PCBs) y tales transiciones de salida pueden crear cargas incontrolables en el sistema que pueden introducir contenido de alta frecuencia indeseado para controlar el EMI.

El artículo refiere que afortunadamente las técnicas de control de los bordes de las ondas cuadradas tales como la limitación de emisiones activas, ahora están siendo integradas en muchos amplificadores clase D para administrar los problemas de EMI y eliminar la necesidad de filtros grandes de salida, lo cual también se traduce en un incremento en la inversión de los fabricantes.

Controles EMI y ahorro importante de espacio
La limitación de emisiones activas es una propiedad de la tecnología para el control de niveles de borde que están integrados a una gran variedad de amplificadores clase D del portafolio de Maxim. Los circuitos AEL reducen los componentes espectrales banda-espejo sin que se degrade la calidad del audio.

El documento señala que las transiciones rápidas de salida mejoran la eficiencia del sistema mediante la minimización de pérdidas desde un modo sube/baja de los dispositivos de salida. No obstante, esas transiciones rápidas también introducen contenido de alta frecuencia que impacta negativamente en la calidad de las emisiones. Con el AEL las salidas de riel-a-riel se equilibran inteligentemente para reducir las tan indeseadas frecuencias cambiantes y al mismo tiempo se mantiene una buena eficiencia.
En una serie de figuras, Maxim muestra uno de sus amplificadores clase D y los niveles óptimos de AEL integrado en el mismo dispositivo, además se realiza una comparación con aquellos amplificadores que no cuentan con AEL incorporado.

Eficiencia típica de audio del amplificador MAX98214 Clase D con AEL de Maxim

Eficiencia típica de audio del amplificador MAX98214 Clase D con AEL de Maxim

Espectro EMI

El espectro EMI del amplificador clase D MAX98214 con AEL reduce el EMI y elimina la necesidad de filtros de salida como ocurre con otros amplificadores clase D.

Eficiencia de un Clase D de audio que no posee AEL

Eficiencia de un Clase D de audio que no posee AEL

Espectro EMI para un amp clase D con AEL

Espectro EMI para un amp clase D con AEL

En conclusión, el método AEL permite a los ingenieros desarrolladores beneficiarse de la buena eficiencia de los amplificadores Clase D y sin que se preocupen del EMI causado de la topología de ‘switching’. Además de reducir el EMI y eliminar la necesidad de filtros y otros componentes de supresión, la técnica AEL en integración con los amplificadores Clase D, otorga a los ingenieros la posibilidad de reducir la Interferencia Electromagnética incluso en aquellos dispositivos muy pequeños, reducir los costos de desarrollo debido a la eliminación de módulos adicionales y por supuesto obtener una mayor vida de batería para los dispositivos electrónicos portátiles (PDAs).

Para mayor información sobre los amplificadores clase D de la compañía Maxim Integrated Circuits, puede acceder al sitio de Internet: http://www.maxim-ic.com

Un drone-pulsera es ganador de concurso Intel

Tags: , , , , , , , ,


La convocatoria “Make it Wearable” de Intel Corporation destapó excelentes tecnologías creadas por jóvenes soñadores e ingeniosos que mostraron cómo será la vida para las personas en un futuro no muy lejano.

(ElectronicosOnline.com Magazine / Oswaldo Barajas)

Bajo el nombre de “Nixie” un pequeño cuadróptero ultra-liviano que puede ser utilizado como brazalete, fue el ganador del concurso “Make it Wearable” organizado por la compañía Intel Corporation en su primera edición, haciéndose acreedor a 500 mil dólares en efectivo.

Un drone-pulsera es ganador de concurso Intel

Los resultados de esta convocatoria fueron dados a conocer el pasado 3 de noviembre y los finalistas publicados en el sitio Web de la empresa, donde se reconocieron además al segundo y tercer lugar, una prótesis robótica de bajo costo y un guante altamente sensible, respectivamente.

En suma, los ganadores del concurso fueron 10, de los cuales el jurado rescató a los 3 primeros lugares con un grado de controversia, ya que entre las propuestas se encontraron tecnologías que reunieron el nivel de innovación necesaria para ocupar el primer lugar, haciendo de esta primera edición de ideas “vestibles” un evento muy reñido.

Wearable Electronics
El concurso “Make it Wearable” convocó a las mentes más ingeniosas.

Como parte de sus requisitos Intel expuso que los equipos interesados en participar debían someter inventos relacionados a la electrónica vestible, es decir, que las tecnologías pudieran ser utilizadas como parte del atuendo ordinario o como una prenda de vestir.

El primer lugar

El proyecto “Nixie” fue sometido por un grupo de jóvenes ingenieros estadounidenses y alemanes liderados por Jelena Jovanic, y se trata de un pequeño drone que resulta tan flexible que puede ser colocado en la muñeca como brazalete, y con un simple movimiento del brazo despliega sus cuatro hélices e inmediatamente se pone a volar.

El rasgo más destacable que atrajo la atención de los jueces, fue el hecho de que su estructura fuera lo suficientemente flexible como para enrollarse en el brazo, pero al mismo tiempo lo suficientemente rígido como para mantenerse en el aire sin afectar su vector de vuelo, pero más aún el hecho de que los concursantes integraran una diminuta cámara para realizar grabaciones “selfies” desde un ángulo aéreo para luego descargarla por el usuario en algún equipo de cómputo.

De acuerdo a sus diseñadores, Nixie tiene como objetivo proveer una herramienta a las personas que gustan de hacerse auto-fotografías o videos “selfies” y que ante la falta de un dispositivo como tal, se ven limitadas.

Drone Nixie
“NIxie” es el nomnbre de la pulsera que se convierte en drone para grabar ‘selfies’ de las personas.

Detallaron que con su propuesta las personas evitarán realizar acciones como estirar el brazo o encuadrar y programar la cámara del celular mientras calculan el mejor ángulo posible, lo cual puede ser frustrante en el momento que la persona se halla en su estado más óptimo.

El reporte refiere que los concursantes crearon a Nixie tan solo 10 días antes de que cerrara la fecha de inscripción a la convocatoria, factor que les valió aún más por parte de los jueces.

El dispositivo puede funcionar en “modo bumerang” en el que el drone se aleja, toma la foto e inmediatamente regresa y en “modo sígueme” en el que el dispositivo se aleja y sigue la trayectoria de la persona a una altura deseada desde donde lo va grabando.

Para realizar la administración de las funciones de grabación y el control del drone, los ingenieros desarrollaron una interface compatible con celulares inteligentes, con el cual el usuario puede observar la ubicación del dispositivo, y visualizar el ángulo.

Por lo pronto, los ganadores no revelaron los objetivos a corto plazo, pero admitieron que el dinero obtenido servirá para establecer la ruta de comercialización para su prototipo una vez alcancen los acuerdos todos los integrantes del equipo.

2do y 3er lugar

El segundo lugar fue asignado a una mano robótica llamada “Bionics” diseñada por científicos ingleses utilizando impresoras 3D, lo que daría como resultado la reducción en los costos de manufactura y la posibilidad de comenzar a producir prótesis que sean tan económicas que cualquier persona especialmente de escasos recursos pueda adquirirlas. Debido a su propuesta, el jurado de Intel lo premió con 200 mil dólares.

Bionics
El segundo lugar se lo llevó Bionics, una mano robótica para prótesis impresa en 3D que resulta de bajo costo.
ProGlove
El guante ProGlove integra múltiples sensores que ayuda a medir la productividad de las personas al trabajar.

El tercer lugar lleva por nombre “ProGlove” y es un guante que integra múltiples sensores que permiten medir la temperatura de objetos, la productividad de quien lo porta, o incluso otras variables como la frecuencia cardíaca.

La interface alámbrica del guante despliega la información recolectada en una pantalla donde el usuario puede observar las lecturas de los parámetros que desea analizar. La relevancia de estos guantes fue calificada por los jueces de Intel como alta debido a que sería de gran interés para las compañías manufactureras a fin de medir los resultados de sus líneas de producción, haciendo que su penetración comercial sea muy rápida y viable.

FirstVision
El sistema FirstVision incorpora una pequeña cámara embebida de alta resistencia que graba en tiempo real lo que el deportista ve.

Finalistas de concurso Intel
Los diez finalistas del concurso Intel Make it Wearable hicieron que la primera edición fuera por demás reñida por el nivel de innovación aplicada.

Pero entre los otros siete finalistas se encuentran propuestas que sin duda fueron reconocidas y que al criterio de ajenos reúnen las características necesarias para haberse llevado el primer lugar. Tal es el caso de una cámara incorporada a una camiseta la cual va grabando en tiempo real lo que el usuario ve, en este sentido una forma de compartir con los adicionados de algún deporte como el futbol o el automovilismo el escenario que presencian sus deportistas favoritos.

Los organizadores del evento reconocieron el nivel de innovación que atrajo y adelantaron que continuarán con este concurso en los años siguientes, a fin de motivar el desarrollo de tecnologías para el sector de electrónica verstible.

Miniaturiza un inversor de corriente y gana 1 mdd

Tags: , , , , ,


Google y la IEEE convocaron a la comunidad en general para inventar un inversor de corriente que sea 10 veces más pequeño que el más moderno disponible en el mercado. El premio será de un millón de dólares.

(ElectronicosOnline.com Magazine / Oswaldo Barajas).-

Este proyecto de desarrollo fue lanzado a la comunidad internacional a manera de concurso patrocinado por Google y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) bajo el nombre de “The Little Box Challenge”, en el que planean miniaturizar a un grado casi portátil un inversor de corriente con la densidad más alta del mercado.

Miniaturiza un inversor de corriente y gana 1 mdd

En el sitio de Web de la propuesta aparece como introducción un anuncio flash en el que se muestran diversos videos cortos que aluden a la miniaturización y sus beneficios, y bajo este esquema se describe el objetivo de materializar a escala kilowatt un inversor ultra-potente.

Los inversores de corriente son módulos esenciales que toman energía de fuentes como la solar, a través de los paneles fotovoltáicos y que posteriormente la convierten en corriente alterna para uso doméstico, equipo industrial y actualmente vehículos eléctricos o híbridos mediante el almacenamiento en baterías recargables de Litio-Ion.

“El problema es que los inversores domésticos son muy grandes, aproximadamente del tamaño de un frigobar. Hacerlos más pequeños permitiría crear fuentes de suministro más económica para las casas, así como redes eléctricas distribuidas más eficientes, y podrían ayudar a llevar electricidad a las partes más remotas del planeta”, comenta el portal del concurso.

Una vez expuesto el conflicto que desean resolver con este concurso, la compañía de Internet y la IEEE buscan que el diseño final sea del tamaño de una laptop o menor, inclusive de una tableta electrónica, con una reducción de tamaño de > 10× del volumen convencional. “Y ayudar a revolucionar la electricidad para el siguiente siglo”.

Inversores de corriente

Para facilitar la construcción del dispositivo a los concursantes, la página aporta algunas fuentes de apoyo como datos de compañías que en los pasados años se han dedicado a abrir líneas de investigación para elevar la densidad de los inversores en módulos contraídos, y muchas de las firmas que recientemente han registrado avances importantes en materia de diseño de materiales de construcción para estos sistemas.

Los convocantes arrojan una pista y comparten que en la actualidad existe un conjunto de nuevas tecnologías prometedoras que podría permitir densidades más altas de potencia en módulos de almacenamiento, los cuales podrían ser utilizados para desarrollar sus propuestas, incluyendo semiconductores de banda prohibida ancha (WGB) tales como el Nitruro de Galio (GaN) y Carburo de Silicio (SiC).

Inversores miniatura
La idea es diseñar el inversor de corriente más pequeño pero con la mayor densidad para implementarlo en tecnologías emergentes, principalmente aquellas portátiles.

Incluso el sitio de Internet comparte algunos de los fabricantes que ofrecen tecnologías basadas en los anteriores elementos y hasta documentos técnicos para la aplicación de sus diferentes soluciones, por lo que los interesados en este concurso tienen lo que coloquialmente se consideraría como un millón de pesos en bandeja de plata.

La convocatoria está dirigida a emprendedores, pero en caso de que alguna institución educativa desee participar, la compañía aconseja visitar el sitio Research at Google, en donde podrán hallar áreas de vinculación con el corporativo y otros formatos de financiamiento para academia e investigación científica.

Futuras aplicaciones

Con la propuesta más ad-hoc a los requerimientos técnicos del concurso, se pretende ofrecer a la industria un elemento fiable para la fabricación de sistemas fotovoltáicos más económicos, fuentes de energía ininterrumpidas y más efectivas, microredes de energías limpias más asequibles para regiones remotas, e incluso para aplicación en industrias como automotriz, con módulos de respaldo energético alterno a las baterías recargables de coches eléctricos o híbridos.

Pero ¿cuál sería el beneficio para Google? Por supuesto nadie otorga dinero así por así; la idea del gigante de Internet es equipar sus enormes centros de datos compuestos por centenares de racks de servidores con tecnología que les provea energía a un bajo costo, siendo el costo de electricidad uno de los gastos corrientes más importantes y pesados para la compañía.

Google Datacenters
Google planea con este concurso beneficiarse al hallar suministros de energía eléctrica más baratos para sus enormes centros de datos compuestos por miles de servidores  que consumen cantidades millonarias de luz.

Entre las especificaciones que deberá presentar la propuesta de los participantes se encuentra innovación a nivel diseño y materiales. Tendrá que demostrar una eficiencia energética mayor al 95% y manejar cargas de 2 kVA. En el caso del diseño exterior, el módulo metálico no deberá sobrepasar las dimensiones de 655 centímetros cúbicos y alcanzar una operatividad constante mínimo de 100 horas bajo prueba de laboratorio.

Cabe señalar que esta tecnología también es perseguida por otras compañías como Tesla Motors, que destina fuertes cantidades de recursos para descubrir métodos que ayuden a reducir los costos de fabricación de las baterías de Litio-Ion, lo que en términos comerciales ayudaría a bajar precios de los flamantes modelos eléctricos que a la fecha se comienzan a lanzar al mercado por parte de esta firma.

Publicidad (Abre en ventana nueva)

WooThemes - Premium WordPress Themes

Electronicosonline Live Feed

Publicidad (Abre en ventana nueva)

Feedback Form
Feedback Analytics