Entradas

Investigadores de la UPM demuestran cómo se mueve la energía en flujos turbulentos

La revista Science recoge los resultados de sus investigaciones que explican cómo la turbulencia ayuda a disipar la energía de los fluidos y que supone un nuevo punto de partida para los modelos de turbulencia.

“Nuestro estudio demuestra la existencia de una dinámica simplificada de la cascada de energía”, explica José Cardesa, investigador del grupo de Mecánica de Fluidos Computacional de la Universidad Politécnica de Madrid en la Escuela Técnica Superior de Ingeniería Aeronáutica y del Espacio. La relevancia de los resultados obtenidos para la comunidad científica internacional ha llevado a la revista Science a publicar su artículo “The turbulent cascade in five dimensions”, en referencia al análisis de grandes conjuntos de datos de simulaciones de flujo turbulento que han llevado a cabo mediante la identificación y seguimiento de estructuras coherentes que evolucionan en cinco dimensiones: espacio (tridimensional), tiempo y escala.

Dentro del grupo de investigación liderado por el catedrático de la UPM y reconocido experto internacional en este campo, Javier Jiménez, José Cardesa y Alberto Vela-Martín han resuelto numéricamente las ecuaciones que rigen el movimiento de un flujo incomprensible y newtoniano para después analizar los datos de forma novedosa, aislando los torbellinos por tamaños. Han deducido que la energía se extiende de remolinos grandes a remolinos cercanos más pequeños. Han validado la teoría de los años 40 del matemático Kolmogorov, que aunque era ampliamente aceptada, ahora se prueba mediante observación directa. Estos logros constituyen un nuevo punto de partida para modelos de turbulencia en el marco de los esfuerzos existentes en la comunidad científica para mejorar la capacidad de predicción del software industrial, puesto que comprender este proceso es fundamental para las estrategias de modelado de flujos geofísicos e industriales.

En esta entrevista explican cómo se han desarrollado sus investigaciones, qué implican los resultados obtenidos y cuál es el camino que tomarán en el futuro.

Pregunta: Con las investigaciones realizadas, ¿estamos un paso más cerca de desentrañar el fenómeno de la turbulencia?
Respuesta: Al intentar desentrañar la turbulencia afrontamos dos tipos de dificultades. Primero intentamos extraer, si existe, algún comportamiento sencillo dentro de lo que es un caos de torbellinos cuya complejidad dificulta su modelización. Luego intentamos encontrar la razón, el porqué, de esa dinámica simplificada que se haya podido detectar.
Nuestra investigación aporta mucho en lo primero, pues demuestra que estadísticamente hay un patrón recurrente que se puede observar y cuantificar. Por lo tanto esto nos ayudará a refinar la búsqueda del porqué, sobre todo ahora que tenemos los datos para analizar dónde y cuándo está sucediendo este comportamiento y dónde no.

P. ¿En qué han consistido las simulaciones realizadas?
R. Las simulaciones han resuelto numéricamente las ecuaciones que rigen el movimiento de un fluido incompresible y newtoniano. Esto es, las mismas que rigen cómo se mueve el viento o el agua. La única condición impuesta ha sido que el fluido esté dentro de un cubo en el que el flujo en las caras opuestas sea igual. Los cálculos se ejecutaron en el Centro de Supercomputación de Barcelona, usando un código desarrollado por Alberto Vela-Martín para correr paralelamente en múltiples tarjetas gráficas (GPUs). Algo novedoso de esta simulación ha sido el almacenamiento íntegro de la simulación temporal, como si de una película se tratase. Los 100 terabytes de simulación están ahora almacenados en la ETSIAE, Universidad Politécnica de Madrid, y disponibles para que la comunidad científica los analice a través de nuestra base de datos de libre acceso.

La manera en la que hemos analizado los datos también ha sido novedosa. Hemos aislado los torbellinos de cuatro tamaños distintos, separados entre ellos por un factor de dos. Poniendo dimensiones a las que estamos todos acostumbrados, si un lado del cubo que hemos simulado mide 6 metros, hemos aislado la energía de los torbellinos de 1 metro de diámetro, y también la de los de 50cm, 25cm y 12.5cm de diámetro. Después, hemos descompuesto la película de la simulación almacenada en otras cuatro películas: una para la energía de cada uno de los cuatro tamaños. Analizadas por separado, estas cuatro series temporales no dicen gran cosa, pues el fenómeno que queremos investigar requiere de varios tamaños a la vez, pero superponiendo una película encima de la otra y mirando la intersección entre tamaños, nuestro análisis ha revelado que las películas a distintos tamaños son similares pero están sucediendo con un desfase temporal.

P. ¿La conclusión a la que se ha llegado es que la energía se extiende de remolinos grandes a remolinos cercanos más pequeños?
R. Correcto. De media, la energía en torbellinos de diámetro 50cm, por poner unidades, nacen dentro de aquellos de 1m que están desapareciendo. A su vez, los de 50cm de diámetro desaparecerán cediendo el paso a la energía en nuevos remolinos de 25cm de diámetro. Insisto, esto es lo que se observa de media. Es un análisis estadístico.

P. ¿Esto valida la teoría del matemático Andrei Kolmogorov de los años 40?
R. Esto valida una de las hipótesis sobre la que se basó para desarrollar su teoría. Sin tener acceso a los datos que tenemos ahora, intuyó que la cascada de energía era un proceso gradual, progresivo, en el que la energía iba de un tamaño a otro más pequeño pero no significativamente más pequeño. Esta fenomenología era aceptada aunque no directamente observada por otros grandes científicos de su tiempo que estudiaron la turbulencia: Onsager, Heisenberg, Von Weiszacker…pero originalmente se atribuye esta visión de la cascada a L.F. Richardson.

P. ¿Qué aporta al estado del arte de la investigación de la turbulencia?
R. La fenomenología en base a la cual la energía se transmite entre torbellinos de tamaños semejantes era compartida por una parte importante de la comunidad, y esto desde tiempos de Kolmogorov. Nuestra investigación aporta una observación directa de esta fenomenología que faltaba para que dejara de ser una suposición ampliamente aceptada, al igual que ayuda a descartar la hipótesis de que los intercambios de energía entre tamaños muy dispares sean importantes. Por otra parte, acota cuantitativamente lo que se entiende por tamaños “semejantes”. No había, en la teoría de Kolmogorov, un número que definiera cuán dispares pueden ser los tamaños para seguir intercambiando energía. Finalmente, presentamos un método para analizar datos de un flujo turbulento, y lo hemos utilizado en un fluido en el que se podía intuir cuál iba a ser la tendencia predominante de la energía: ir de los torbellinos grandes hacia los pequeños. Pero por su generalidad, nuestro método invita a probar con flujos en los que la cascada de energía es aún más compleja y donde está aún menos clara la tendencia predominante. Este es el caso de los flujos con rotación, compresibilidad, pero también aquellos con conductividad eléctrica: metales líquidos y plasmas, cuyo comportamiento turbulento también es el foco de intensa investigación.

P. ¿Qué supone vuestro trabajo sobre flujos de energía para la predicción en la resistencia aerodinámica? ¿Qué otras aplicaciones podría tener?
R. Las ecuaciones que rigen el movimiento de los fluidos generan mucha información. Tanta, que cuando resolvemos estas ecuaciones en ordenadores para modelizar flujos de relevancia industrial/ambiental, debemos limitarnos a simular solamente una parte del flujo que cabe en los ordenadores, y empleamos un modelo de turbulencia para compensar la ausencia de la parte del flujo que no está siendo calculada. El software industrial que usan actualmente los ingenieros para predecir, entre otras cosas, la resistencia aerodinámica de un vehículo, ofrece a los usuarios un abanico de modelos con parámetros ajustados empíricamente. La diferencia entre los flujos simulados con estos modelos y el flujo real es una consecuencia directa de la validez del modelo usado. Por lo tanto, es imprescindible inyectar en los modelos empleados toda la física simplificada (pero válida) que seamos capaces de incluir. En este esfuerzo por mejorar la capacidad de predicción del software industrial basado en modelos de turbulencia se enmarca nuestro estudio, que demuestra la existencia de una dinámica simplificada de la cascada de energía y que puede ahora servir de base para un nuevo modelo de turbulencia. Esta sería la continuación lógica de nuestra investigación.
En cuanto a otras aplicaciones, conviene recordar que los modelos de turbulencia también se usan en contextos de predicción meteorológica.

P. ¿Cuál es el siguiente paso para seguir investigando en la turbulencia? ¿Próximos retos en este campo?
R. Sucede como con tantos otros aspectos de la turbulencia: no hay consenso entre la comunidad científica al respecto. Cada investigador tiene su propia visión. Mi opinión particular es que falta ser humildes y reconocer que tan poco progreso después de tanto tiempo puede ser una señal de que falla el punto de vista. Nuestra manera de abordar el problema puede ser la responsable de que nos resulte tan difícil. Encontrar un ángulo de aproximación a la turbulencia que permita darle sentido con mucho menos esfuerzo me parece el reto final en este campo.

P. ¿Qué significa para un investigador joven como tú haber logrado este hito?
R. Sin elevarlo a la categoría de hito, significa un cambio de percepción inmediato de nuestro propio trabajo. Algo que iba destinado a la comunidad científica especializada en turbulencia, una comunidad que muy pocas veces publica en revistas como Nature o Science por falta de atractivo para los no especialistas, resulta de repente ser compatible con una audiencia mucho más amplia. Esto no es algo que hubiera imaginado mientras trabajábamos en esta investigación, y ha sido evidentemente una grata sorpresa. En cuanto al significado más a largo plazo, el tiempo lo dirá.

P. La publicación en Science supone de alguna manera el reconocimiento de la comunidad científica, ¿cómo lo valoras?
R. Lo valoro positivamente como una demonstración de que en ciencia sigue siendo posible alcanzar cotas de visibilidad elevadas (dentro de la comunidad científica) usando como principal herramienta la imaginación y la originalidad de una idea. Nuestro trabajo, salvando una diferencia en coste económico sustancial, hubiera sido posible por capacidad computacional y de almacenamiento hace 10 años. No muchos más, pero desde luego 10 sí. Por lo tanto, no hemos destacado por haber hecho la simulación más grande del momento, sino más bien por haber elaborado una manera innovadora de analizar datos rompiendo con todo lo que se había hecho antes. Invertir más tiempo en la idea que en la ejecución no siempre es fácil, por imperativos de tiempo y/o financiación. He sido muy afortunado por encontrarme en un grupo donde esto haya sido no solamente posible sino además fomentado.

Fuente: http://www.upm.es/?id=027510e48443f510VgnVCM10000009c7648a____&prefmt=articulo&fmt=detail

 

Proyecto SAVIER: Realidad aumentada para ayudar a los operadores de drones

Investigadores del Grupo de Tratamiento de Imágenes de la Universidad Politécnica de Madrid (UPM) han desarrollado un sistema de realidad aumentada para mejorar la conciencia de situación de los operadores de vehículos aéreos no tripulados (UAVs) dentro del proyecto SAVIER Open Innovation impulsado por Airbus para mejorar sus estaciones de tierra.

El proyecto SAVIER (Situational Awareness Virtual EnviRonment) Open Innovation de Airbus tiene por objeto mejorar la conciencia de situación de los operadores de UAVs y las interfaces hombre-máquina de las estaciones de tierra. Esta herramienta ha sido diseñada de acuerdo a los estándares de la Organización del Tratado del Atlántico Norte (OTAN) para este tipo de estaciones de tierra y probada en un demostrador en las instalaciones de Airbus en Getafe.

El incremento de la popularidad de los drones ha sido notorio en los últimos años gracias a la aparición de nuevas plataformas y a la gran difusión que han tenido. Existen diversos modelos y tamaños, pero la característica que la mayoría comparten es que van equipados con un sensor clave para su éxito: la cámara. Gracias a ella, los UAVs han ido sustituyendo a los sistemas tripulados como medio para la obtención de vídeo para distintas tareas, por ejemplo, la vigilancia. Además, los drones han permitido utilizar imágenes aéreas en otros campos en los que tradicionalmente no se usaban, como en la inspección de estructuras.

El tamaño de la plataforma determina, en parte, el tipo de tarea para la que sirve y por consiguiente el tipo de ayuda que necesita el operador del UAV. Se puede hacer una distinción entre aquellos drones para los que no hace falta haber pilotado anteriormente una aeronave, y los que sí, que son aquellos que van orientados a sustituir los vehículos tripulados. Estos últimos requieren el uso de estaciones de tierra de cierta envergadura para su control.

Típicamente, en las estaciones de tierra los operadores reciben mucha información (plan de vuelo de la misión, posiciones de interés, vídeo de la cámara embarcada, etc.) que se les muestra en diferentes pantallas. Esta forma de presentar la información hace que los operadores, para interpretar de manera adecuada lo que está ocurriendo en cada momento, tengan que fusionar toda la información lo más rápido posible, lo que aumenta su estrés y dificulta la toma decisiones.

Así, para mejorar la conciencia de situación de los operadores de UAVs, en el Grupo de Tratamiento de Imágenes adscrito a la ETS de Ingenieros de Telecomunicación de la UPM, han creado una herramienta de realidad aumentada adaptada a estas estaciones de tierra. Los investigadores explican sus ventajas: “la herramienta permite, gracias a la fusión de información, presentar en una única pantalla el flujo de vídeo capturado por el UAV enriquecido con elementos virtuales. Estos elementos virtuales aportan información relevante para que el operador pueda llevar a cabo su misión con éxito”.

El sistema de realidad aumentada incluye en el vídeo información orientada a cubrir dos necesidades: el seguimiento del plan de vuelo del UAV y la identificación de posiciones relevantes (objetivos). La primera, permite al operador conocer la dirección de vuelo y las posiciones por las que va a pasar el UAV mientas maneja la cámara. La segunda, le permite identificar las posiciones de interés que deben vigilar y, además, distinguir si están o no enmascaradas por el terreno.

Fuente: http://actualidadaeroespacial.com/default.aspx?where=3&id=1&n=20976

 

Pablo Flores Peña, CEO de Drone Hopper, gana el I Premio COIAE a la Innovación Aeronáutica, por su dron para la extinción de incendios forestales.

Pablo Flores Peña, obtuvo su título de ingeniero aeronáutico por la Universidad Politécnica de Madrid (UPM) en 2005 y actualmente compagina su trabajo en Airbus Group como responsable de varios sistemas y componentes estructurales del A320 con el lanzamiento de la start-up Drone Hopper, dedicada al diseño y fabricación de drones autoguiados para la extinción de incendios y la fumigación de grandes cultivos.

El Colegio Oficial de Ingenieros Aeronáuticos de España (COIAE) ha reconocido con el “Premio innovación aeronáutica 2017” a Drone Hopper porque sus drones representan una solución de alta tecnología, que permite su adaptabilidad de acuerdo a las diferentes condiciones y necesidades requeridas en el momento de controlar los incendios forestales. Cada dron tiene una capacidad máxima de hasta 300 litros de agua y unas dimensiones de 160 cm de diámetro por 50 cm de alto. La configuración elegida da como resultado una solución compacta, estable y resistente al fallo. Cuenta con modificaciones estructurales que permiten implementar características que hacen viable el transporte y nebulización, así como los sistemas de control, cámaras térmicas y navegación.

En esta entrevista, Pablo, explica en qué consisten sus desarrollos tecnológicos, qué mejoras aportan en su campo de actuación, y cómo fue su paso por la Escuela.

Pregunta.- ¿De dónde surge la idea de este dron?

Respuesta.- La idea surge a partir de la observación de las condiciones en las que operan los medios aéreos convencionales y que, siendo una gran ayuda y una labor encomiable, tienen muchas lagunas y pueden complementarse utilizando tecnologías disponibles.

P.- Estamos viviendo días con nefastas noticias de incendios forestales, ¿qué ventajas aportaría Drone Hopper en actuaciones de extinción de este tipo?

R.- Las dos ventajas más importantes son, por un lado, la posibilidad de operar en condiciones nocturnas cuando los medios aéreos tripulados deben abandonar el escenario de operaciones y por otro, el hecho de que en caso de accidente, no haya pérdida de vidas humanas.
Además, al ser una aeronave muy diferente, ofrece unas posibilidades muy interesantes como son la posibilidad de crear cortafuegos, líneas de defensa, proteger cuadrillas, casas, infraestructuras… de una manera muy precisa. También permite repetir la operación en pocos minutos y utilizar varias unidades de manera coordinada en forma de noria, atacando el incendio de manera casi continua.
Y todo ello, a un precio por litro embarcado mucho menor que una aeronave tripulada.

P.- Drone Hopper ofrece datos en tiempo real, ¿qué supone esta posibilidad en situaciones de emergencia?

R.- Drone Hopper utiliza sensores avanzados para su propio funcionamiento y es muy sencillo exportar esa información para que sea utilizada por la dirección del incendio en tiempo real y esto ayude a la toma de decisiones.

P.- También disponéis de otro modelo destinado a la fumigación, ¿el futuro del control de plagas será vía dron?

R.- Pensamos que sí, especialmente si hablamos de grandes extensiones. Aquí confluyen dos aspectos: por un lado, la operación tiene que cumplir con la normativa y aportar valor ecológico y por otro, se pide que sea competitiva en términos económicos.

P.- En breve haréis pruebas de vuelo de este segundo dron, ¿cuándo comienza a comercializarse? ¿Qué falta para que el de extinción levante el vuelo?

R.- Este verano queremos empezar a probar nuestro prototipo de 80 litros y planta de potencia eléctrica. Esta unidad servirá como demostrador comercial y como banco de pruebas. Sobre esta base, se desarrollarán dos modelos: el Agro Hopper, de 60 litros, motores de dos tiempos y dirigido a la fumigación extensiva y el Urban Hopper, de 150 litros, propulsado por turbinas térmicas y pensado para incendios urbanos. La tercera plataforma, el Wild Hopper, se desarrollará a partir de otro prototipo, tendrá una capacidad de 300 litros, y estará propulsada por motores Wankel. Cualquiera de estas plataformas podría estar lista en el plazo de un año, atendiendo únicamente a cuestiones técnicas. Sin embargo, acometer el desarrollo y certificación de estas unidades para poder venderlas no es una empresa pequeña y requiere de una inyección financiera importante que estamos buscando. Por otro lado, tenemos el tema de la certificación que tiene sus plazos y que depende del país y del tipo de certificación al que se aplique.

Por eso, no puedo responder con exactitud; espero que podamos encontrar una manera de tener disponibles unidades operativas para el próximo verano y que puedan ser utilizadas bajo supervisión militar en un primer momento, mientras se trabaja con AESA en la certificación civil de las aeronaves y de su operación.

P.- ¿Qué significa para Drone Hopper ser premio a la innovación del COIAE en su primera edición?

R.- Recibir premios para una start-up es siempre una gran noticia porque es una forma de comunicar al mundo lo que estamos haciendo y además da mucha moral al grupo. En concreto este premio es muy especial porque el aval de un organismo tan prestigioso como el Colegio Oficial de Ingenieros Aeronáuticos le da a nuestro proyecto mucha credibilidad y, personalmente, es un orgullo recibir el premio de tus compañeros de profesión.

P.- Sois una empresa participante en la ESA BIC de la Comunidad de Madrid, ¿cómo se llega hasta allí? ¿Por qué creéis que os han seleccionado?

R.- En nuestro caso, llegamos al programa gracias a que la Fundación Madri+d nos concedió el premio ESNC (European Satellite Navigation Competition promovido por la ESA) y nos hablaron del programa ESA_BIC. En seguida nos empezamos a preparar el examen de ingreso. Supongo que nos seleccionaron porque vieron en Drone Hopper un proyecto innovador y disruptivo, con lagunas, por supuesto, y que tocaba varias tecnologías derivadas o desarrolladas en el espacio.

P.- ¿Cómo recuerdas tu paso por la UPM?

R.- A toro pasado, digamos que lo recuerdo con una mezcla de emociones. En el aspecto académico tuve diferentes fases de dedicación y motivación y en algún momento fue duro, pero

por otro lado conocí a mi mujer y a mis mejores amigos y eso compensa todos los malos momentos.

P.- ¿Qué conocimientos y habilidades adquiriste y has podido aplicar a la creación del prototipo y de tu propia empresa?

R.- La Escuela te da una formación de primer nivel, especialmente teórica, que te permite poder enfrentarte a cualquier problema técnico, pero lo que más valoro es haber obtenido una mentalidad de resistencia y tolerancia a la dificultad que no tenía antes del periodo universitario.

Fuente: http://upm.es/?id=94438dc61721d510VgnVCM10000009c7648a____&prefmt=articulo&fmt=detail

 

La fibroína de seda: el biomaterial que puede reparar el cerebro

Un estudio desarrollado por investigadores de la UPM demuestra que la fibroína de la seda puede ser un material adecuado para implantes intracerebrales en el tratamiento de los daños cerebrales provocados por un ictus o por traumatismos.

El empleo de biomateriales ha marcado un punto de inflexión para reparar el daño cerebral, una afección que puede desarrollarse por patologías como el ictus isquémico o los traumatismos (accidentes de tráfico o caídas). La reparación del tejido cerebral supone, desde el punto de vista médico, un problema muy complejo de resolver al que se está haciendo frente con la biomedicina. No obstante, aún quedan muchos retos por abordar. Una estrategia prometedora se basa en la utilización de materiales para liberar fármacos o integrar células madre. La búsqueda de materiales altamente compatibles con el tejido nervioso es actualmente intensa. Investigadores de la Universidad Politécnica de Madrid han encontrado lo que podría plantearse como la respuesta a este desafío médico: el empleo de fibroína de la seda en los implantes cerebrales.

“El ictus es la primera causa de discapacidad en nuestro país”, explica Daniel González Nieto, investigador del Centro de Tecnología Biomédica de la UPM y uno de los autores del estudio. “Pese a su alta incidencia, hasta ahora no se dispone de terapias efectivas para promover la reparación del tejido cerebral dañado, con millones de personas afectadas cada año en el mundo”.
Entre las estrategias experimentales actuales, un campo prometedor se basa en el implante intracerebral de células madre de diverso origen, como las células madre mesenquimales que pueden ser obtenidas de la médula ósea o del tejido adiposo. Se sabe que estas células liberan factores que estimulan los mecanismos de reparación de nuestro cerebro. Sin embargo, hasta ahora, el problema se encontraba en los biomateriales que debían emplearse en el implante para reducir el rechazo del organismo a este cuerpo externo. Y ahí es donde entra en juego la fibroína.

“La fibroína de la seda es un material inerte, de baja immunogenicidad, que se utiliza desde hace años en diversas aplicaciones biomédicas como por ejemplo las suturas quirúrgicas. También se han realizado ensayos clínicos en implantes mamarios o para reconstruir la membrana timpánica”, explica Daniel González. “Nuestro trabajo demuestra que este biomaterial, en un formato adecuado para el trasplante intracerebral (hidrogel) puede ser tolerado en el interior del cerebro de los animales”, añade.

La seda, biomaterial inocuo para el cerebro

Los investigadores del CTB, inyectaron una disolución de fibroína de seda en el cerebro de ratones, gelificando dentro del tejido. Tras el trasplante, se evaluó a los animales mediante tests de comportamiento y registros electrofisiológicos para examinar la actividad eléctrica cerebral. “El implante produjo una respuesta inflamatoria mínima y los animales no manifestaron déficits cognitivos ni sensorimotores de relevancia”, explica Laura Fernández García, estudiante de doctorado y primera firmante del trabajo.

“El mensaje principal que podemos extraer de nuestra investigación es que en el cerebro la seda es un biomaterial inocuo, y puede coexistir con la compleja circuitería cerebral que regula la coordinación sensorial y motora, el aprendizaje, la memoria, o los mecanismos de generación y mantenimiento de la vigilia y el sueño”, explica Daniel González.

El estudio, en el que han participado investigadores del Laboratorio de Biomateriales e Ingeniería Regenerativa y la Unidad de Neurología Experimental del CTB, fue financiado por la Comunidad de Madrid (Consorcio NEUROTEC S2010/BMD-2460) y ha sido recientemente publicado en la revista Acta Biomaterialia. Sus resultados abren un camino prometedor para la utilización de la fibroína de la seda, en estudios que persiguen la neuroprotección y reparación del sistema nervioso central y abren la puerta al examen de la seguridad y tolerancia de otros biomateriales implantados en el tejido cerebral.

Fuente: http://www.upm.es/?id=41c1b0f7db4dc510VgnVCM10000009c7648a____&prefmt=articulo&fmt=detail

 

Tot-em (actúaupm 2015), única empresa española seleccionada para el programa MassChallenge Boston 2017

La start-up española tot-em, que pasó por actúaupm, el Programa de Emprendimiento UPM, en el año 2015, se encuentra entre las 128 empresas elegidas de una selección de 1.500 presentadas en todo el mundo.

La start-up española tot-em, premiada en la XII Competición actúaupm, ha sido seleccionada para participar en el Programa de aceleración MassChallenge Boston 2017, una de las aceleradoras de empresas más importantes en todo el mundo según la Revista Forbes. De las 1500 empresas presentadas a nivel internacional, únicamente 128 entrarán a formar parte de este programa; y entre las elegidas, sólo hay tres europeas, entre las que se encuentra tot-em, como única presencia española.

A partir de aquí, las empresas seleccionadas iniciaran un proceso de aceleración que se prolongará durante cinco meses, y que culminará con los “MassChallenge Boston Awards” a principios de noviembre, en los que este centenar de start-ups competirá por unos premios valorados en 2M$ equity-free.

Pero, ¿qué es tot-em? En tot-em consiguen unir artesanía, tecnología e innovación en un solo concepto, convirtiendo el dibujo de la onda de cualquier sonido en 3D en un objeto para llevar siempre contigo: una pieza única e irrepetible, y mucho más que una simple joya. Sus fundadores, con apenas 20 años y una inversión de 800 € recaudados entre familiares y amigos, decidieron embarcarse en la empresa, compaginando su tiempo con las clases en la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la UPM. En 2015 se presentaron a la XII Competición actúaupm, del Programa de Emprendimiento UPM, y ganaron uno de los 10 premios de 1.000 euros a las mejores ideas de negocio presentadas, entre un total de 350, y resultaron finalistas de la Competición.

Sólo dos años más tarde, cuentan con una fiel comunidad de más de 80.00 personas a nivel internacional y han conseguido vender más de 20.000 tot-ems, incorporando nuevos productos a la lista y nuevos miembros al equipo, que en la actualidad ya cuenta con 10 personas. Entre sus objetivos para este año, según anunciaban ellos mismos hace unos meses, se encontraba la expansión internacional, y en concreto hacia Estados Unidos. Lo acaban de lograr. Se van a Estados Unidos, a Boston, con cinco meses por delante de mucho trabajo, para aprender, escalar su start-up, y disfrutar de esta gran oportunidad.

Fuente: http://www.upm.es/?id=b398e8497d26c510VgnVCM10000009c7648a____&prefmt=articulo&fmt=detail

 

¿Cómo pueden las líneas aéreas optimizar la toma de decisiones frente a los trenes de alta velocidad?

Investigadores de la Universidad Politécnica de Madrid (UPM), de la Universidad Rey Juan Carlos (URJC) y del Instituto Tecnológico de Massachusetts (MIT), han desarrollado un modelo para optimizar la toma de decisiones de las compañías aéreas frente a sus competidores.

24/05/2017

Un equipo de científicos de dos universidades españolas, Universidad Politécnica de Madrid (UPM) y Universidad Rey Juan Carlos (URJC), en colaboración con investigadores del MIT, han elaborado un modelo matemático que analiza la competencia entre líneas aéreas, tanto de bandera como de bajo coste, y el ferrocarril de alta velocidad. El modelo consigue estimar la distribución modal de la demanda de pasajeros, elaborar la asignación de la flota de aviones y generar los horarios de los vuelos. Esta herramienta matemática proporciona información muy valiosa y útil que ayudará a las compañías aéreas a enfrentarse eficazmente con la competencia de los trenes de alta velocidad.

Las líneas aéreas y el tren de alta velocidad están compitiendo cada vez más en muchas partes de Europa y Asia, especialmente en los mercados de corto y medio radio. Este tipo de tren a menudo compite proporcionando una frecuencia de servicio similar o incluso mayor que el ofrecido por las aerolíneas y una mejor conectividad con los centros de la ciudad. Además, a menudo se percibe como un modo más seguro y más cómodo de viajar, lo que genera una redistribución de pasajeros entre alternativas aéreas y ferroviarias. El impacto de esta situación en el transporte aéreo regular es bastante incierto y, para abordar el estudio de ese impacto, se reunió un grupo de investigadores entre los que se encuentra Ángel Marín, catedrático en la Escuela Técnica Superior de Ingeniería Aeronáutica y del Espacio de la UPM.

En el estudio se ha desarrollado un modelo de competencia −considerando la competencia multimodal entre el transporte aéreo y el tren de alta velocidad y la competencia aérea entre líneas de bandera y de bajo coste− usando un modelo logit anidado que captura los impactos de las decisiones de las compañías aéreas sobre la demanda de pasajeros. En el núcleo del enfoque se encuentra un modelo integrado de optimización que incluye la planificación de frecuencias de los vuelos, el desarrollo aproximado del horario, la asignación de la flota y el comportamiento de los pasajeros en la elección del modo de viaje. Los resultados computacionales se realizaron sobre casos de problemas usando datos de la aerolínea española IBERIA. Las pruebas muestran la validez del modelo puesto que los horarios actuales de las líneas aéreas se encuentran razonablemente cerca de los horarios generados por el modelo.

También se utilizó este enfoque de modelización de optimización bajo competencia multimodal, para evaluar múltiples escenarios que implican la entrada de trenes de alta velocidad en nuevos mercados, teniendo en cuenta la estimulación de la demanda como resultado de los nuevos servicios. El modelo se validó utilizando datos de mercados que tuvieron una entrada de ferrocarriles de alta velocidad en el pasado. Los resultados de validación muestran una estrecha concordancia entre las soluciones del modelo y la realidad y muestran su utilidad para predecir los impactos de la entrada futura del ferrocarril de alta velocidad en nuevos mercados.

En consecuencia, el marco de modelización propuesto resulta de utilidad desde la perspectiva de los operadores de líneas aéreas ya que les permite planificar mejor su actividad frente a otros competidores mediante el ajuste de horarios, flotas y tarifas. Como señala Ángel Marín, uno de los investigadores implicados en este estudio, “el marco facilitado posibilita la evaluación cuidadosa de varios escenarios -tales como acciones de los competidores, cambios en la flota, cambios de tarifas, etc.- lo que permite a la aerolínea estar mejor preparada para adaptarse al cambiante entorno competitivo”.

Esta investigación se ha desarrollado en el marco del proyecto “Robustez, eficiencia y recuperacion de sistemas de transporte publico”, proyecto de investigación TRA2014-52530-C3-1-P, del Ministerio de Economía y Competitividad.

Fuente: http://www.upm.es/UPM/SalaPrensa/Noticias_de_investigacion?id=abec0827e602c510VgnVCM10000009c7648a____&fmt=detail&prefmt=articulo

 

Uso de materiales inteligentes para incrementar la seguridad en carretera

Investigadores de la UPM estudian el desarrollo de un sistema de señalización basado en materiales inteligentes que aumente la visibilidad y seguridad en el transporte. Su aplicación en zonas de peligro permite mejorar la detección del riesgo y su control por parte del conductor.

La reducción del número de accidentes ha sido un objetivo clave para la Dirección General de Tráfico durante los últimos diez años. Para cumplirlo se han llevado a cabo diversas campañas de concienciación y cambios en las sanciones, pero también se ha incrementado la inversión en infraestructuras destinadas a favorecer el descenso del riesgo de accidentes.

Una de ellas es la desarrollada por un equipo de investigadores de la Universidad Politécnica de Madrid, que trabaja en el análisis de nuevos mecanismos de señalización sostenibles que incrementen la seguridad en carretera. La finalidad última de las investigaciones es pasar de un modelo tradicional de funcionamiento basado en la detección previa del vehículo y posterior respuesta lumínica, a un modelo donde la detección y la respuesta estén integrados, añadiendo como ventaja el autoabastecimiento de energía.

Para ello, proponen el uso de un sistema inteligente basado en material piezoeléctrico. Este tipo de sensores utiliza el efecto piezoeléctrico para medir presión, aceleración, tensión o fuerza, transformando las lecturas en señales eléctricas o viceversa, transformando señales eléctricas en pequeñas presiones mecánicas.

“Los detectores piezoeléctricos son de fácil producción a la vez que económicos. Además, responden a la necesidad de ser un sistema de detección pasivo, ya que no consume energía permanentemente. Se usan para medir presiones rápidamente cambiantes u otras fuentes de choque o vibración, lo cual entra en el propósito de aprovechar el paso de rueda de los vehículos”, explica Alicia Larena, catedrática de Ingeniería Química de la UPM y una de las autoras del estudio “About the use of intelligent systems for road safety”.

Su aplicación resulta especialmente interesante en situaciones de riesgo que generan una disminución de la seguridad vial, como la falta de visibilidad en tramos poco iluminados o por condiciones meteorológicas adversas, en curvas peligrosas o confluencias de tráfico, y en situaciones de emergencia causadas por accidentes, retenciones u obras en la infraestructura. “El uso de un sistema de detección inteligente, como un sistema piezoeléctrico, y aviso mediante LEDs en zonas de peligro con poca visibilidad, permite mejorar la detección de los elementos de riesgo y su posible control por parte del conductor”, apunta Alicia Larena.

Tecnologías de señalización en seguridad vial

En el artículo publicado, los autores analizan las diferentes tecnologías con aplicación para la detección del vehículo y la posterior iluminación de paneles indicadores o señalización mediante LEDs. Entre los detectores tradicionales, los investigadores se decantan por el sensor de tipo PIR (Passive Infrared), que presenta la ventaja de no emitir energía si no detecta movimiento (detector pasivo).
A diferencia de los sensores PIR, los detectores ultrasónicos tienen un campo de detección continuo (activo), pero pierden su propósito cuando se quieren utilizar para la conservación de energía eléctrica, como es el caso del control automático de la luz en señalización viaria.

Geometrías señalización horizontal /combinación con materiales inteligentes

Por su parte, los sensores por microondas y de radar, similares a los ultrasónicos pero que emiten ondas electromagnéticas en vez de sonoras, son generalmente más costosos y consumen más.
No obstante, ninguno de estos sensores aporta las mismas prestaciones que ofrece un sistema inteligente basado en material piezoeléctrico, sensores que han comenzado a adquirir un papel importante en el entorno industrial y que los investigadores de la UPM proponen aplicar a aumentar la seguridad vial, así como a reducir sus costes.

El estudio de la UPM se enmarca en el Programa de la Comunidad de Madrid S2013/MIT-2713-SEGVAUTO-TRIES-CM para el desarrollo conjunto de actividades de investigación, innovación y formación de investigadores en el ámbito de los sistemas de transporte inteligentes, eficientes, limpios, accesibles y seguros. Además de la UPM, a través del Departamento de Ingeniería Química Industrial y del Medioambiente (ETSI Industriales) y el INSIA coordinador del proyecto, participan las universidades Complutense de Madrid, Alcalá de Henares, Carlos III de Madrid, Europea de Madrid, CSIC, y más de cuarenta empresas (EMT, 3M, Ferrovial, CEPSA, FCC, ALSA y AVIA, entre otras).

Larena Pellejero, Alicia; Merlo Mas, Josep. “About the use of intelligent systems for road safety”. DYNA Ingeniería e Industria, Septiembre-Octubre 2016.

Fuente: http://www.upm.es/UPM/SalaPrensa/Noticias_de_investigacion?id=3b6c53fea091b510VgnVCM10000009c7648a____&fmt=detail&prefmt=articulo

 

QBITO, el primer CubeSat de la UPM, camino de la Estación Espacial Internacional

Los nanosatélites que integran QB50, incluido QBITO, se lanzarán rumbo a la ISS en los próximos días. Su misión conjunta comenzará en abril cuando sea desplegado el primer grupo de ellos.

QB50 es un proyecto internacional, liderado por el Instituto Von Karman (Bélgica) para el estudio de las propiedades de la baja termosfera. Está formado por 36 nanosatélites que han sido diseñados, desarrollados y fabricados en 28 países a través de centros de investigación o equipos universitarios. De ellos, 28 serán lanzados desde la Estación Espacial Internacional (ISS) y 8 lo harán en el lanzador indio PSLV.

La Universidad Politécnica de Madrid (UPM), gracias al trabajo de sus investigadores del Centro de Operaciones y Soporte a Usuarios Español (E-USOC) de la Agencia Espacial Europea (ESA), firma uno de esos nanosatélites. QBITO es su primer CubeSat, un estándar de satélite de reducido tamaño y de unos pocos kilos de peso (en este caso de 10x10x26 centímetros y 2 kilos).

Durante los más de 2 años que han invertido en su desarrollo, los investigadores del E-USOC han logrado una propuesta “robusta e innovadora”, en sus propias palabras. QBITO se ha diseñado con el objetivo de que sus subsistemas sean muy versátiles, permitiendo satisfacer las necesidades de misiones diversas.

Los principales desarrollos para esta misión son: el subsistema de potencia, la estructura, el subsistema de control térmico, los mecanismos de despliegue de antenas, el software embarcado y el subsistema de comunicaciones, este último desarrollado en colaboración con la Escuela Técnica Superior de Ingenieros de Telecomunicación de la UPM.

QBITO ha superado las exigentes pruebas necesarias para poder volar: ensayos estructurales, térmicos y funcionales definidos por el consorcio para asegurar el éxito de misión, así como las pruebas definidas por Nanoracks, la empresa encargada de poner los satélites en órbita.

Seis meses de estudio de la termosfera

Al igual que los otros CubeSat que conforman la red de QB50, QBITO tiene como misión científica estudiar la baja termosfera, muy poco conocida porque su densidad es demasiado baja para emplear globos aeroestáticos y demasiado alta para desarrollar misiones duraderas con satélites. En la termosfera se absorbe gran parte de la radiación de alta energía que llega del Sol, la más dañina para la vida de nuestro planeta. QBITO rodeará la Tierra en una órbita inicial circular de 420 km. altura y 51º de inclinación. Todos los CubeSat cuentan con sensores idénticos y su combinación permite establecer una red de toma de datos multipunto.

El E-USOC entregó al Instituto Von Karman su QBITO finalizado y listo para vuelo en noviembre de 2016. Desde ahí se envió a EEUU y ahora se encuentra dentro del carguero Cygnus, que se lanzará por el cohete Atlas-V desde Cabo Cañaveral rumbo a la Estación Espacial Internacional no antes del 27 de marzo, según la última actualización de NASA.

Una vez que el carguero atraque en la Estación Espacial Internacional, los astronautas extraerán de él, junto con el resto de la carga, los nanosatélites del QB50. Posteriormente estos se desplegarán en dos tandas, una en abril y otra en junio. QBITO lo hará en la primera de ellas. Ahí comienza la misión. Su duración estimada es de 6 meses, ya que una vez alcancen la órbita de destino irán perdiendo altura debido a la resistencia aerodinámica hasta desintegrarse en la atmósfera al final de su vida útil.

Además del diseño y fabricación del satélite, el E-USOC ha desarrollado el segmento de tierra y el concepto de operaciones. Mediante su estación de seguimiento de satélites, enviará los comandos y recibirá los datos emitidos desde QBITO para después procesar todos estos parámetros y conseguir que la fase de explotación de los datos obtenidos con la misión sea exitosa.

QBITO, contenedor de ciencia experimental

La investigación científica dentro de la red QB50 es la razón de ser de este primer CubeSat de la UPM. Junto a esa carga de pago principal (Ion and Neutral Mass Spectrometrer, INMS), lleva embarcados dos experimentos secundarios, uno que permitirá evaluar el comportamiento del n-Docosane como material de cambio de fase en condiciones de microgravedad y otro, que permitirá probar un software de determinación y control de actitud basado en la teoría de control mediante lógica difusa.

Por si fuera poco, el hecho de usar como plataforma de la misión un CubeSat, permite otro hito, la demostración en órbita. Esto es, llevar cargas útiles adicionales para ser probadas en ambiente espacial con un coste económico reducido. En el caso de QBITO, se incluye un detector de infrarrojo de onda media que no precisa refrigeración.

Y realizarlo en la UPM, en un centro de investigación ubicado en el campus de excelencia internacional, de Montegancedo, contribuye a la finalidad educativa que también tiene el proyecto. En el equipo del E-USOC que ha trabajado en QBITO a lo largo de este tiempo se han integrado jóvenes ingenieros y estudiantes, futuros investigadores y profesionales del sector que han adquirido un conocimiento de gran valía para su futuro al estar inmersos en un reto espacial real de esta envergadura.

Fuente: http://www.upm.es/?id=f20e2a058bafa510VgnVCM10000009c7648a____&prefmt=articulo&fmt=detail

 

ActúaUPM: Abierto plazo de inscripción

La Competición de Creación de Empresas UPM actúaupm está dirigida a estudiantes, profesores e investigadores de la Universidad Politécnica de Madrid que acepten el reto de poner a prueba sus ideas de negocio.

25/01/2017

Objetivos

Potenciar el espíritu emprendedor e incentivar la innovación en la comunidad universitaria.
Apoyar la generación de iniciativas empresariales viables económica y operativamente, que puedan convertirse en un proyecto de negocio diferenciador.

Dirigido a

Profesores, investigadores, estudiantes de grado, doctorado y máster, así como PAS de la UPM y antiguos alumnos de hasta 5 años. Adicionalmente, cualquier persona o personas ajenas a la UPM, que formen equipo con personal perteneciente a la Universidad Politécnica de Madrid.

Fases

Fase 1: Premios a las mejores ideas

1.000 € a las 10 mejores ideas de negocio.
Adicionalmente, una selección de equipos además de los premiados tendrán acceso a la siguiente fase de formación.

Fase 2: Formación

Seminarios y cursos para el desarrollo óptimo de un plan de negocio: marketing, finanzas, marco jurídico…
Asesoramiento especializado.
Conferencias, encuentros con emprendedores de éxito.

Premios a los mejores planes de negocio

1er premio: 15.000 €
2º premio: 10.000 €
3er premio: 5.000 €
Premio al mejor proyecto promovido por estudiantes: 3.000 € (los estudiantes también pueden acceder a las otras categorías)

Fase 3: Incubación

Apoyo a las empresas constituidas.
Acceso a financiación y capital riesgo.
Posibilidad de ubicación en centros de empresas.
Red de contactos.

 

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

“La nanoingeniería de materiales puede aumentar la eficiencia de las células solares”

Entrevista a José María Ulloa, investigador del ISOM que acaba de recibir la medalla como finalista del Premio Agustín de Betancourt y Molina de la Real Academia de Ingeniería.

10/01/2017

Lograr que las actuales células solares presenten una mayor eficiencia de conversión es uno de los grandes retos de la energía fotovoltaica en la actualidad. Y en ese campo es en el que trabaja José María Ulloa, investigador del Instituto de Sistemas Optolectrónicos y Microtecnología (ISOM) y profesor del Departamento de Ciencia de Materiales de la Universidad Politécnica de Madrid (UPM), que acaba de recibir la medalla como finalista del Premio Agustín de Betancourt y Molina de la Real Academia de Ingeniería.

Licenciado en Ciencias Físicas (1999) por la Universidad Complutense de Madrid (UCM) y doctor en Tecnologías de la Información y las Comunicaciones (2005) por la UPM, los trabajos de Ulloa apuesta diariamente por la nanoingeniería de materiales como vía para mejorar algunos de los dispositivos optoelectrónicos existentes, actualmente sobre todo en el campo de la energía fotovoltaica, logrando que esta sea más eficiente y rentable.

Pregunta: Su carrera como investigador le ha hecho merecedor de la medalla del premio Agustín de Betancourt y Molina. ¿Cuáles son sus actuales líneas de investigación?

Respuesta: En el grupo nos centramos básicamente en la fabricación de nanoestructuras y materiales semiconductores novedosos y en demostrar que pueden producir mejoras en las prestaciones de dispositivos optoelectrónicos. Para ello, utilizamos la epitaxia de haces moleculares, posiblemente la técnica más sofisticada que existe para el crecimiento de materiales semiconductores. Esto nos permite un gran control sobre las propiedades morfológicas y, por tanto, sobre la estructura de bandas y las propiedades ópticas de las nanoestructuras. Diseñamos las propiedades ópticas mediante ingeniería de bandas en la nanoescala, o sea, hacemos nanoingeniería de materiales. Lo bueno es que podemos cubrir todos los pasos desde el crecimiento y caracterización de nuevas nanoestructuras hasta la fabricación y caracterización de dispositivos basados en ellas.

La aplicación que más nos interesa ahora mismo y en la que nos hemos centrado en los tres últimos años es la energía fotovoltaica y por tanto las células solares. Intentamos demostrar que se puede mejorar la eficiencia de células de una unión y de células multi-unión utilizando nanoestructuras como puntos cuánticos, superredes, etc. con las propiedades adecuadas.

P: Aumentar la eficiencia de conversión de las células solares es, precisamente, uno de los grandes retos de la investigación en energía fotovoltaica. ¿Por qué es tan importante?

R: Es un aspecto fundamental para conseguir que esta energía se imponga en el futuro. La tecnología que tiene desde hace muchos años los récords de eficiencia de conversión y que va acercándose ya al 50% son las células de multi-unión, fabricadas con materiales semiconductores. El problema es que son caras, pero funcionando con ópticas de concentración podrían compensarse esas diferencias, y la superficie requerida es mucho menor. En general hay tecnologías diferentes que consiguen aumentos de eficiencia prácticamente cada año y a veces surgen materiales o tecnologías nuevas que consiguen en unos pocos años aumentos espectaculares, como es ahora mismo el caso de las perovskitas (un nuevo tipo de material fotovoltaico considerablemente más barato de obtener que el silicio).

P: El desarrollo del sector fotovoltaico en España fue espectacular. ¿Afecta también a la investigación el parón causado por los cambios posteriores en el marco económico y regulatorio?

R: Sí, hubo un desarrollo muy rápido. Hubo años en que España fue uno de los países con más potencia fotovoltaica instalada del mundo. Aunque la crisis del sector había empezado antes, el famoso “impuesto al sol”, que de alguna manera penaliza la autogeneración y el autoconsumo energético, agrava mucho la situación. Supongo que esto afecta mucho más a la investigación a nivel empresarial que en las instituciones públicas como la universidad. En cualquier caso, seguro que afecta negativamente también a la transferencia de tecnología desde el sector público al privado.

P: El uso de la tecnología LED en el campo de la iluminación es conocida, pero tiene también otras aplicaciones en las que usted ha trabajado. ¿Cuáles son las más destacadas

R: Sí, seguramente las aplicaciones de los LED visibles son las más conocidas, como su uso en TVs y por supuesto ahora en iluminación. Pero hay aplicaciones interesantes también en otras longitudes de onda, por ejemplo en el ultravioleta para desinfección de agua o impresión UV (mediante “curado” fotoinducido). Nosotros hemos trabajado más en el infrarojo, dónde hay aplicaciones para LEDs en controles remotos, comunicaciones entre satélites, medicina (por ejemplo en dermatología y en neurología o en tomografía óptica coherente en el caso de los diodos superluminiscentes). Hemos trabajado mucho también con diodos láser en el infrarrojo, que, aunque son mucho más complejos de desarrollar que los LEDs, son preferibles en muchas aplicaciones, como por ejemplo comunicaciones ópticas.

P: Premios como los de la Real Academia de Ingeniería sirven para dar a conocer el trabajo de los investigadores. ¿Considera usted que esta labor está valorada suficientemente por la sociedad?

R: Bueno, las encuestas del CIS siempre dicen que los científicos estamos muy bien valorados por la sociedad en general. Por otro lado, sin embargo, quizás hay cierta falta de cultura científica, es un tema en el que creo que la mayoría de la gente no se considera competente y esto quizás genera cierto distanciamiento. Es normal, hemos llegado a un grado de desarrollo científico-técnico y de especialización enorme. Por eso creo que tenemos que ser capaces también de exponer nuestra investigación desde un punto de vista más general, situándola en un contexto amplio.

Fuente: http://www.upm.es/UPM/CanalUPM/Noticias_de_investigacion?id=6b521b6105629510VgnVCM10000009c7648a____&fmt=detail&prefmt=articulo