Archivo de la categoría: Investigación

El Internet de las Cosas y la sostenibilidad medioambiental

DIEGO CASADO-MANSILLA          JUAN LÓPEZ-DE-ARMENTIA
Investigadores de DeustoTech Internet

IoT.Diego.Juan.Imagen1

El concepto Internet de las Cosas (Internet of ThingsIoT, en inglés) radica en que los objetos que nos rodean y que usamos diariamente  estén conectados a Internet en cualquier momento y lugar. Este concepto está altamente relacionado con la Ubicuidad.
En términos más técnicos, diríamos que consiste en integrar una serie de componentes electrónicos en la fase de diseño de estos objetos cotidianos con el fin de dotarles de conectividad a Internet. Dado que Internet está presente en casi cualquier rincón del planeta y que el tamaño y coste de la electrónica ha disminuido de manera notable en las últimas décadas, cualquier objeto es susceptible de ser conectado, manifestarse en la Red y actuar como fuente de datos.
La conectividad a la Red es la base del Internet de las Cosas. Sin embargo, los objetos conectados deben desempeñar un rol para sacar rédito a su ubicuidad y poder ser considerados como objetos inteligentes. Para ello, son necesarios tres pilares: 1) componentes computacionales que permitan procesar información —ej. micro-controladores—; 2) sensores que permitan obtener información física del entorno y convertirla en información procesable digitalmente —ej. luminosidad, movimiento, temperatura—; y 3) actuadores, que son dispositivos electrónicos que permiten modificar o generar un efecto sobre la física del entorno —ej. motores, altavoces—.
Las aplicaciones del Internet de las Cosas cubren un amplio espectro de nuestra vida cotidiana. Uno de los campos en el que está empezando a tener y se prevé tendrá gran relevancia, es las sostenibilidad medioambiental.
Como ejemplo, se citan algunos proyectos e iniciativas que se están llevando a cabo en el ámbito de la ciudad, espacios públicos y hogar. En el proyecto PEACOX[1] se monitorizaba la calidad del aire con la
idea de promover el uso de rutas alternativas con baja contaminación atmosférica para conductores, ciclistas, viandantes. Cada vez más proyectos optan por el uso de IoT para gestionar el tráfico de forma más eficiente a través de sensores desplegados en la ciudad[2]. En el campo de los edificios públicos, uno de los objetivos del nuevo programa H2020 apunta al diseño de sistemas de control de presencia para hacer un uso eficiente de la calefacción y alumbrado por zonificación[3]. Por último en el ámbito del hogar la domótica copa la mayoría de los proyectos de IoT (lavadoras que ajustan su programa al momento del día en que la energía es más barata y proviene de fuentes renovables, termostatos inteligentes que aprenden las preferencias[4] y horarios de los habitantes del hogar para realizar un uso eficiente de la calefacción sin perder confort, o electrodomésticos inteligentes que son capaces de aprender la forma y frecuencia en la que son utilizados con el fin de promover un uso eficiente de los mismos[5].

A vista de todos está que la tecnología ubicua está aquí para quedarse y debemos aprender a convivir con ella, pero teniendo presente que no va a ser la solución a los malos hábitos de la sociedad. Desde la visión de DeustoTech Internet, en ocasiones la automatización y cooperación entre dispositivos para realizar una cierta tarea será la mejor opción, en otras, la cooperación entre objetos cotidianos y humanos será lo más adecuado. Pero siempre habrá ciertas tareas que realiza el ser humano en las que no existe posibilidad de reemplazo.
Ahora toca reflexionar al lector. ¿Quién debe asumir la responsabilidad de las tareas cotidianas? ¿Las máquinas,
los humanos o la deben compartir entre ambos? Nuestra recomendación: apelar al mejor de los sentidos… el tan denostado sentido común.

Seguir leyendo El Internet de las Cosas y la sostenibilidad medioambiental

Los extraños modelos de negocio de Internet de las Cosas (IoT)

IÑAKI VÁZQUEZ
Profesor del Departamento de Telecomunicaciones
Fundador y CEO de Symplio
@inakivazquez
ivazquez@deusto.es

Adidas Smart Ball
Adidas Smart Ball

En 1874 un grupo de ingenieros franceses construyeron un sistema de sensores para monitorizar de manera remota desde París las condiciones climatológicas y la profundidad de la nieve en el Mont Blanc.
En 2015 un usuario analiza en su teléfono móvil una previsión de las calorías que ha quemado mientras practicaba deporte durante la última hora. Seguidamente sube a su vehículo que le recomienda la mejor ruta conforme al estado del tráfico y las estaciones de servicio más económicas para repostar. Mientras conduce, envía comandos de voz a su refrigerador para que haga un inventario de contenidos, le sugiera posibles platos a cocinar hoy con los ingredientes disponibles, y que supongan un aporte calórico equilibrado. El sistema de calefacción se activa ahora de manera remota en la casa, ya que restan sólo 20 minutos para su llegada. Entre estos dos escenarios han pasado más de 100 años y varias revoluciones tecnológicas. ¿Qué tienen en común todos los productos que toman parte en el segundo escenario?

¿Qué tienen en común Adidas, Ford, Google, Iberdrola, Bosch y Telefónica? Respuesta: todos ellos y muchos más, están trabajando
en crear nuevos productos y servicios alrededor de Internet de las Cosas, rediseñando nuestra relación con los objetos que nos rodean y forman parte de nuestra vida. Si hay una característica fundamental que tiene la visión de los productos conectados a Internet es precisamente lo mejor (y lo peor) de los dos mundos: átomos y bits, o dicho de otro modo, objetos y servicios.

Cuando me toca explicar en clase modelos de negocio para Internet de las Cosas muchas veces trabajamos el ejemplo de Adidas y su Smart Ball (un balón de fútbol con sensores). No porque sea un caso de éxito, sino porque permite jugar, explorar y abrirse a nuevos conceptos.
Un momento, ¿un balón con sensores?. Sí, la Smart Ball recoge información del impacto del chut, velocidad y rotación de la pelota, entre otros datos, y los presenta en su app asociada donde el jugador puede analizarlos, comparar su evolución y competir con otros. En definitiva, «cuantificar» una actividad para medirla de manera objetiva, de este modo gestionarla, y así finalmente mejorarla.
Pero lo mejor es que todos estos datos se pueden llevar a la nube y someterlos a un proceso de análisis, para generar información relevante, valiosa y contextualizada para un determinado cliente, como un club de fútbol profesional. Y en este punto pasamos al dominio de los servicios, donde es posible comercializar «packs de análisis de datos» bajo diferentes modelos de precios y desde la comodidad del sillón y el ordenador, y entrando de lleno en los modelos de negocio de Internet (freemium, pago por uso, suscripción).

La potencia de Internet de las Cosas es que permite «servificar» los productos físicos tradicionales y generar flujos de ingresos basados en la comercialización de dichos servicios, incluso a veces  subvencionando el producto a coste, para reducir barreras de entrada. ¿Os imagináis que una pala de pádel profesional costase la mitad si os vinculáis con la contratación de un año del «servicio de análisis de golpes»? ¿O que os pagaran cada día por vestir una camiseta conectada a Internet que muestra publicidad relevante, contextual y útil a las personas de alrededor? Si hay negocio, no dudéis, lo veremos.

Informática, ayer hoy y mañana

ASIER PERALLOS
Director del Departamento de Ingeniería Informática

Diploma Soluciones Internet

Son ya muchos años de mi vida vinculados al mundo de la informática. Primero como mero aficionado, después también como estudiante y hoy en una triple vertiente como profesional de la  misma. Cuando echo la vista atrás y busco los orígenes de este vínculo, me vienen a la cabeza aquellos ordenadores Spectrum de 48k y almacenamiento en cinta de casete convencional y esos programas en lenguaje BASIC que transcribíamos en el colegio, que dibujaban diversas formas en la pantalla y que nadie intuía para qué servían en realidad. Por aquellos años debía empezar a dilucidar cuál pudiera ser mi carrera profesional y todo el mundo me aseguraba que «la informática es la profesión del futuro». Y no pocos de ellos me decían que «de la Universidad de Deusto salen los mejores profesionales en esta disciplina».

Desconozco si estos consejos fueron los que me hicieron inclinarme por esta profesión, pero lo cierto es que aún hoy los recuerdos. Han cambiado mucho las cosas desde entonces, no en vano han pasado ya más de 25 años. Pronto surgió algo llamado Internet, que llegó para quedarse entre nosotros. Al mismo tiempo la inteligencia y la conectividad iban poco a poco impregnando distintos dispositivos y electrodomésticos en nuestros hogares. Después surgieron los teléfonos móviles, que cada vez se fueron haciendo más inteligentes. Su capacidad para proveer servicios digitales de consumo general era tal, que pronto aparecieron distintos modelos y tamaños de tabletas electrónicas. También las redes sociales vieron la luz, veremos aun si como moda pasajera o no. No mucho más tarde el concepto de «la nube» ha irrumpido como un término tecnológico destinado a cambiar nuestras vidas y no sólo como ese lugar en el que evadirse de vez en cuando. Hoy empezamos a escuchar con cada vez más fuerza términos como «Big Data» que pretenden dotar a los humanos de un conocimiento extraordinario a través del análisis computacional de ingentes cantidades de datos recolectados por los miles de dispositivos, sensores y redes que campan a nuestro alrededor.

Vivimos surfeando sobre olas tecnológicas tremendamente ilusionantes, tanto desde una perspectiva de usuario como profesional. Olas que promueven importantes cambios sociales y económicos. Olas que generan continuamente oportunidades de negocio y empleo, en torno a las cuales se posicionan hornadas de profesionales. Olas que renuevan y arrasan con lo anterior. En ese sentido, la informática se ha convertido en una disciplina con algunas semejanzas tradicionalmente atribuidas a los médicos:
estudiar y reciclarse a lo largo de toda la vida y alta especialización en una u otra área.

Como parte del equipo de la Facultad de Ingeniería de la Universidad de Deusto y ahora como director del departamento de Ingeniería Informática tengo la responsabilidad compartida de que nuestra oferta académica sea la más adecuada para formar profesionales íntegros que naveguen adecuadamente en este escenario cambiante: grados en informática que doten de versatilidad al estudiante, másteres profesionalizantes que le aproximen al mundo laboral, y postgrados y formación continua  altamente especializada para los profesionales a lo largo de su vida.

No deja de ser paradójico que en un mundo tan dinámico y de continuo cambio vertiginoso como el descrito, esos consejos que me dieron cuando era un adolescente, hace ya más de un cuarto de siglo,
estén vigentes y pudiera dárselos hoy a mi hijo sin riesgo a equivocarme.

El tamaño sí es importante

IGOR SANTOS GRUEIRO
Investigador de DeustoTech Computing y profesor en la Facultad de Ingeniería
isantos@deusto.es
@santos_grueiro
Blog s3lab.deusto.es/blog

Big-Data1

Creo que entre las mejores definiciones que he leído de «Big Data» cabría destacar la pronunciada por Dan Ariely: «Big Data es como el sexo en la adolescencia: todo el mundo habla sobre ello, pero nadie sabe realmente cómo se hace, así que todo el mundo dice que lo está haciendo». Habiendo trabajado en análisis de datos, no puedo sino ver un abuso de un buzzword hasta para definir «datos que no caben en hoja de excel».
Pese al escepticismo, creo que hemos pasado a una realidad en la que los datos son vitales. Peter Sondergaard, vicepresidente de la reputada consultora Gartner, dijo: «La información es la gasolina del siglo 21 y el análisis de datos el motor de combustión». La democratización de los servicios online genera una gran cantidad de datos listos para convertirse en valiosa información.
En el aprendizaje automático hay métodos que a partir de datos, pueden traducir texto, sugerir búsquedas, predecir trayectorias de automóviles… y además han sabido adaptarse a la mayor cantidad de datos con nuevas y más robustas tecnologías.

Pero, ¿no habéis sentido en ocasiones que vuestros datos en la red ya no son vuestros? Yo sí. Cuando utilizamos una red social para reconectar con algunos compañeros de instituto o cuando subimos ficheros a un sistema de almacenamiento en la nube, hemos de ser conscientes de sus riesgos. ¿Y todo el mundo entiende esto? Permitidme que lo dude…
Con Big Data, podemos ir mucho más allá, correlacionando datos de texto, imágenes (metadatos y las propias imágenes), datos  localización, etc.. Ser o no consciente, no tiene tanta importancia. Por ejemplo, aunque tengamos una cuenta de twitter, blindada y anónima, podríamos saber quién está detrás —en mi equipo identificamos a los autores de un caso de ciberbullying mediante el texto de la cuenta que los acosadores usaban—. Y es que de cara a nuestros datos online, tenemos demasiadas plataformas, contextos, etc. El único aspecto en el que centrar la privacidad es el usuario. S3Lab – DeustoTech Computing trabaja en una iniciativa que llamamos «User Centric , Context Aware, Cross-Platform Security & Privacy» para que los datos y la seguridad vuelvan (o estén) en manos del usuario. ¿Esto significa que «Big Data» es «malo»? No, es presente y es futuro. Lo único, dejadme que os aconseje,  inspirándome en la definición de Dan Ariely: «El Big Data es como el sexo adolescente. Mejor si tomamos precauciones.»

Seguir leyendo El tamaño sí es importante

¿Para quién el Big Data?

PABLO GARAIZAR SAGARMINAGA
Profesor e Investigador de la Facultad de Ingeniería
garaizar@deusto.es
Blog  http://softwarelibre.deusto.es

Desde hace varias décadas estamos recabando datos por encima de nuestras posibilidades de procesamiento.  Enormes bases de datos o ficheros de registro (logs) guardan un diario de lo que ha sucedido
tiempo atrás. Tanto datos generales (cuánto frío o calor hizo un determinado día, cuáles son los temas de actualidad en la prensa durante un periodo de tiempo, qué tasa de paro hay en una
determinada región, cuántos libros se han reservado en una biblioteca, etc.), como personales (qué páginas web hemos visitado, qué términos de búsqueda hemos usado, qué compras hemos realizado con nuestras tarjetas de crédito, qué llamadas de teléfono hemos recibido, qué calificaciones hemos obtenido, a quién invitamos a un servicio al que solamente puede accederse a través de invitación, etc.).

Es difícil conocer las consecuencias de la digitalización de todos esos datos personales porque es necesario poder convertir los meros datos en información. ¿Cuál es la diferencia? Como explica nuestro compañero Juanjo Gibaja: si nos sirve para tomar una decisión mejor, estamos hablando de información; si no, seguirán siendo meros datos. Con las mejoras en infraestructura hardware y software que han provocado que Big Data sea uno de los términos de moda últimamente, quizá hayamos llegado a ese esperado o temido momento. ¿Por qué temido? ¿No es maravilloso poder entender mejor la realidad y poder tomar decisiones más acertadas?
Depende de quién sea el beneficiario de ese mejor entendimiento de  la realidad. Si la respuesta a esa pregunta no es el mismo colectivo que quien generó la información, estamos ante la posibilidad de que las técnicas de análisis de conjuntos de datos masivos hagan más daño que beneficio. Por ejemplo, ¿a quién mejora el Big Data Analysis aplicado a la educación? Si la respuesta no es a quienes están estudiando, deberíamos reconsiderar la idoneidad de la aplicación de estas técnicas en este ámbito. Algunos partidarios del análisis masivo de datos se excusan diciendo que las identidades de las personas están anonimizadas y, por tanto, a salvo.
Quiero creer que ese argumento se emplea con más ingenuidad que picaresca, porque esos mismos partidarios deberían conocer lo sencillo que resulta revertir ese proceso y conseguir dar con la identidad real a través de un buen conjunto de evidencias anonimizadas (ejemplo: no sé quién es el usuario 131287, pero sé que vive en Bilbao, tiene 28 años, una hermana de 24 años y ambos han sido estudiado Derecho… el cerco se reduce, con unas pocas evidencias más, sabremos quién es inequívocamente). Por supuesto,
hay buenas prácticas que evitan este y otros problemas derivados del Big Data, y tanto investigadores como investigados deberían tratar de que se sigan en todo momento.

 

¿Qué puede aportar el análisis masivo de datos a mi organización?

ALEX RAYÓN
Profesor e investigador en la Facultad de Ingeniería

Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.
Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.

Según Gartner, en 2015 van a ser necesarios 4,4 millones de personas formadas en el campo del análisis de datos y su explotación. En este sentido, McKinsey sitúa en torno al 50% la brecha entre la demanda y la oferta de puestos de trabajo relacionados con el análisis de datos en 2018. Por lo tanto, y ante la
gran divulgación que está teniendo el término, seguramente no os tenga que introducir mucho el concepto Big Data.
Son sistemas informáticos que manejan y procesan grandes volúmenes de datos, y que en palabras del profesor Viktor Mayer de la Oxford Internet Institute, nace y se define como el eterno sueño de la estadística: que no haya que muestrear, sino que podamos analizar todos los datos generados en un entorno dado. Que no haya que analizar un todo considerando sus partes (representativas, claro). Según vimos los avances en la capacidad de procesamiento de datos, en el abaratamiento del hardware y en la cantidad de datos que se estaban generando (redes sociales, movilidad, la Nube, ciudades y redes inteligentes, etc.), pensamos que los ordenadores iban a ser capaces de procesar grandes volúmenes de datos. Todos los datos; y que entonces íbamos a poder aplicar técnicas estadísticas para sacar muchas conclusiones de todo ello. Y esto, claro está, representa una oportunidad para las organizaciones, empresas y personas que quieran tratar y analizar los datos para obtener valor para la toma de decisiones o para sus clientes: ayudar
a las empresas a vender más (detectando patrones de compra), a optimizar costes (detectando cuellos de botella o desperdicios), a encontrar más clientes (por patrones de comportamiento), a detectar puntos de mejora en procesos (por regularidades
empíricas de mal funcionamiento) y un largo etcétera.
Pero, en este mundo del Big Data, hay demasiados falsos positivos (como señala Kaiser Fung, autor de Number Sense). Para evitarlos, se debe:

  1. Hacer Big Data con un marco teórico que entienda, represente y modelice el dominio de conocimiento que se está estudiando (no sea que vayamos a correlacionar la desaparición de los piratas con el cambio climático);
  2. Una muestra significativa (y aquí, el tamaño no lo es todo);
  3. Significatividad estadística (que la relación no brote de la aleatoriedad).

Con estos tres elementos en la mano, y desplegando los análisis de datos en los procesos de negocio de las organizaciones, sí que podremos hablar del valor en torno al dato. Sí que podremos decir que estamos ayudando a las organizaciones a gestionar el día a día en torno a las evidencias. Cabe hacer, para concluir, una observación. Esto del Big Data va más de preguntas que de respuestas. Por lo que,
mira a tu alrededor, y empieza a plantearte preguntas que podamos, analíticamente, responder. Esto es el Big Data.

 

Open Data en las administraciones públicas

MIKEL EMALDI      m.emaldi@deusto.es
Investigador de DeustoTech Internet

Red de fuentes de conocimiento Open Data. Fuente: Wikipedia
Red de fuentes de conocimiento Open Data. Fuente: Wikipedia

El movimiento Open Data promueve que los datos puedan ser accedidos, utilizados, modificados y compartidos libremente, sin restricciones y para cualquier propósito[1]. Vinculado estrechamente (pero no exclusivamente) a la idea de Gobierno Abierto (Open Government), a través de los datos abiertos se pretende conseguir una administración pública más transparente
sobre la cual poder ejercer un mayor control por parte de la ciudadanía.
Su principal contribución es el aumento de la transparencia y el control democrático de las instituciones a través de la participación ciudadana. Proyectos como Aurrekontuak[2] o «¿Dónde van mis impuestos?»[3] serían irrealizables sin ellos. De la misma manera, mecanismos de participación ciudadana como Irekia[4] o «We the People»[5] serían impensables si previamente los ciudadanos no pudiésemos acceder a los datos de manera sencilla e imparcial, ya que todo proceso de participación ciudadana requiere una ciudadanía correctamente informada. Por otra parte, una sociedad
bien informada tomará mejores decisiones, tanto individualmente
como colectivamente.
Y parece que los diferentes gobiernos se han dado cuenta de ello. Iniciativas como data.gov (EEUU) y data.gov.uk (UK) dieron paso a multitud de iniciativas nacionales, autonómicas y municipales. En el
caso de España, ya sea por convicción o «impulsadas» por la recién nacida (y no poco cuestionada) ley de transparencia, una multitud de administraciones han lanzado sus propios portales de Open Data. A
iniciativas veteranas como la del Ayuntamiento de Zaragoza[6] u Open Data Euskadi[7], se han sumado portales como Aragón Open Data[8], Ayuntamiento de Madrid[9] u Open Data Canarias[10], entre otros.

Pero como en todo, también existe la otra cara de la moneda: portales que en vez de crecer se estancan, o directamente desaparecen. El caso de Open Data Córdoba es especialmente lamentable, ya que cesó su actividad tras una inversión de 382.000 € y apenas un año de vida.
Pero no cantemos victoria todavía: la mera existencia de portales de datos abiertos no asegura ni la transparencia, ni la participación ciudadana, ni un mayor control democrático. La utilización de formatos no estándar y no reutilizables, la translucidez de la nueva ley frente a la transparencia total o la incapacidad y  esconocimiento
de una parte de la ciudadanía a la hora de acceder a estos recursos son obstáculos a superar.
Por nuestra parte, desde DeustoTech-Internet (MORElab) intentaremos abordar estos desafíos a través del proyecto europeo H2020 recientemente aprobado: «WeLive: A neW concept of pubLic administration based on citizen co-created mobile urban services».

1 http://opendefinition.org/
2 http://aurrekontuak.irekia.euskadi.net
3 http://dondevanmisimpuestos.es/
4 http://irekia.euskadi.net/es/proposals
5 https://petitions.whitehouse.gov/
6 https://zaragoza.es/ciudad/risp/
7 http://opendata.euskadi.net/
8 http://opendata.aragon.es/
9 http://datos.madrid.es/portal/site/egob/
10 http://opendatacanarias.es/

 

 

Predecir atascos mediante Inteligencia Artificial

ENRIQUE ONIEVA CARACUEL. Investigador Post-Doctoral en DeustoTech Mobility. Profesor de Inteligencia Artificial en el Máster  en Ingeniería Informática

Imagen de un atasco en una vía urbana
Imagen de un atasco en una vía urbana

Hoy en día, la congestión en las autovías es un problema global, de hecho, casi todas las naciones lo sufren en mayor o menor grado. Entre otras incidencias, ésta causa pérdidas comerciales debido al
aumento de tiempo de viaje y pone en peligro la calidad del medio ambiente debido a las mayores emisiones de CO2 resultantes del atasco. Se estima que los gastos ocasionados por la congestión aumentarán en aproximadamente un 50% para 2050. Por estas razones, el control del tráfico para aliviar la congestión de la carretera es un problema importante a tratar por los Sistemas de Transporte Inteligentes.

Por otra parte, el adelantarse a las congestiones es un componente clave de los Sistemas de Transporte Inteligentes, dado que las predicciones dadas pueden ser utilizadas tanto por los conductores, con el fin de replanificar sus rutas, como por los gestores de tráfico y autoridades, para mejorar el tráfico vehicular.

Hay una serie de circunstancias específicas que causan o agravan la congestión, la mayoría de ellas reducen la capacidad de una   carretera en un tramo determinado, o durante un determinado periodo de tiempo. En muchas ciudades altamente pobladas la congestión vehicular es recurrente, y se atribuye a la gran demanda del tráfico. La mayoría del resto se atribuye a incidentes de tránsito, obras viales y eventos climáticos. Es difícil predecir en qué  condiciones un atasco sucede, pues puede ocurrir de repente. Se ha constatado que los incidentes pueden causar repercusiones, que luego se difunden y crean un atasco.
Gracias a la alta sensorización de la que disponen las vías en la actualidad, es posible conocer el estado de la vía (número de vehículos, velocidad promedio, y un largo etcétera) en multitud de sus puntos, y con una frecuencia lo suficientemente alta como para que los datos obtenidos sean prácticamente intratables por operadores humanos. Es ahí donde las técnicas de inteligencia artificial y de minería de datos entran en juego para, a partir de grandes cantidades de datos, extraer conocimiento que pueda resultar de interés tanto para los operadores de tráfico (con el fin de actuar en consecuencia) como para los propios conductores (para, llegado el caso, tomar rutas alternativas).
DeustoTech Mobility promueve una movilidad más eficiente, sostenible, segura y confortable a través del uso de las tecnologías de la información y comunicación.
Como unidad de investigación viene desarrollando sistemas basados en inteligencia artificial capaces de predecir la congestión en un determinado punto de la carretera, en función de los datos recogidos por el sensor situado en un punto de interés de la vía, así como por lo sensores situados antes y después de éste.
Gracias a las técnicas utilizadas, se obtiene, de una manera automática, un conocimiento estructurado en forma de reglas, de manera que sea comprensible por cualquier persona. Así, estas técnicas permiten generar mensajes de la forma:

«Es muy posible que, si el flujo de vehículos actual se mantiene durante aproximadamente una hora, ocurra una retención en las inmediaciones del punto kilométrico 56»

Experimentos realizados con datos de tráfico de carreteras californianas, en colaboración con la Universidad de Hong Kong, han demostrado que se puede predecir la aparición de un atasco con 30 minutos de antelación con un acierto superior al 95%. Gracias a estas investigaciones, se abre campo para el desarrollo de nuevos navegadores que consideren éstas predicciones, y sean capaces, aparte de darnos la ruta más rápida, o más corta, darnos rutas que eviten que nos encontremos con atascos en el momento de recorrerlas.

Impresión 3D: ¿tercera revolución industrial?

SZILARD A. KADOS  szilard.kados@deusto.es

JONATHAN RUIZ DE GARIBAY jonathan.garibay@deusto.es
Investigadores de DeustoTech Telecom

Impresión en 3 dimensiones con la tecnología FDM
Impresión en 3 dimensiones con la tecnología FDM

La fabricación aditiva o impresión 3D, como se conoce popularmente, es una tecnología que permite la fabricación rápida de objetos físicos tridimensionales, partiendo de un modelo virtual
creado con un programa informático de tipo CAD/CAM (Computer Aided Design/Computer Aided Manufacturing). La impresión 3D es un proceso aditivo porque los objetos tridimensionales se realizan por
medio de la deposición y consolidación de múltiples capas de  material, una encima de otra, hasta la creación completa del objeto.

La rápida proliferación de equipos de impresión 3D de bajo coste ha provocado que esta tecnología llegue a los hogares de hobistas y no se vea como un equipo caro e inaccesible. La tecnología de impresión 3D no es nueva. En 1984, Chuck Hull desarrolló la primera impresora 3D con tecnología estereolitográfica y la describió como «un sistema de generación de objetos físicos mediante la adición de capas sucesivas en secciones transversales del objeto». No ha sido hasta el año 2010 cuando esta tecnología ha sido accesible para todo el mundo, bajo diferentes tecnologías de adición e incluso con la aparición de impresoras 3D a color.
La tecnología de impresión 3D se utiliza principalmente para el prototipado rápido y para la fabricación distribuida, destacando su uso en ingeniería, diseño industrial, educación, industria dental, arquitectura, arte, automoción, industria aeroespacial y últimamente incluso en medicina.

¿Cómo se crean los objetos?

La industria del prototipado rápido ha aumentado considerablemente a lo largo del siglo XXI y gracias a ello disponemos de un gran número de procesos aditivos disponibles, una importante diversidad de materiales y diferentes impresoras 3D a nuestro alcance.
Si nos fijamos en los procesos aditivos, se diferencian entre sí por los materiales que utilizan y por los procesos de fabricación de los objetos. Algunos métodos fusionan el material para crear las capas como SLM (Selective Laser Melting), DMLS (Direct Metal Laser
Sintering), SLS (Selective Laser Sintering) o FDM (Fused Deposition Modeling); y otros solidifican el material líquido mediante diferentes técnicas como por ejemplo SLA (Stereolithography). Hay también tecnologías de inyección de pegamento en el compuesto de material
(Ink-Jet Printing), inyección de material curable con UV (PolyJet) o incluso fabricación de objetos laminados como LOM (Laminated Object Manufacturing).

Cada método tiene sus ventajas e inconvenientes y por ello,  dependiendo del prototipo a crear, se deben tener en consideración diferentes aspectos a la hora de elegir una impresora 3D u otra. La velocidad de impresión, el coste de la impresora y los consumibles,
las opciones de materiales y la capacidad de imprimir en color son algunos de las características más importantes.

Repasando las funcionalidades de la impresora profesional
Repasando las funcionalidades de la impresora profesional

Impresoras 3D en educación e investigación

La introducción de esta tecnología en el ámbito de la educación es inevitable y se están dando pasos en este sentido en el área de la ciencia y la ingeniería. Proporcionar a los estudiantes la posibilidad de fabricar las piezas que están diseñando es un salto cualitativo
en el mercado laboral.

La unidad de investigación DeustoTech-Telecom cuenta con dos impresoras de prototipado  3D, una que crea objetos a color y otra open source de bajo coste. A nivel técnico, la impresora profesional
trabaja con colores y funciona con tecnología «Ink-Jet Printing», tiene una precisión de 100μm (0,1mm) y una capacidad de volumen de impresión de 35×25×20cm. En cuanto a la impresora open source, es monocroma y funciona con tecnología «Fused Deposition Modelling», tiene una precisión de 300μm (0,3mm) y una capacidad de volumen de impresión de 20×20×25cm.

Futuro de la impresión 3D

Henry Ford, fundador de la compañía Ford Motor Company y padre de las cadenas de producción moderna, dijo «el verdadero progreso es el que pone la tecnología al alcance todos». Podemos pensar en
impresoras 3D creando objetos sencillos u otros inimaginables, desde piezas de repuesto para un coche hasta órganos humanos. La tecnología ya está inventada y desarrollada y resulta increíble cómo grupos de trabajo de todo el mundo ya están desarrollando impresoras 3D para crear comida, ropa, medicinas o prótesis médicas personalizadas.
Es cierto que aún nos encontramos en una primera fase de adopción de la tecnología de impresión 3D, pero la gran aceptación que está teniendo en las comunidades DIY (Do It Yourself) o en la investigación, es un buen augurio de la importancia que puede llegar
a tener en la sociedad del futuro.

 

Bioinformática: cuando los datos revelan tu salud

BORJA SANZ borja.sanz@deusto.es.  JAVIER NIEVES jnieves@deusto.es

Investigadores en DeustoTech Computing

La revolución que ha supuesto la informática en el ámbito de la salud es indiscutible. Y esta revolución no sólo está empujando el ámbito de la investigación, sino que en los últimos tiempos, con el desarrollo de los wearables y las bandas para medir la salud, es más cada vez más común que los la salud esté se beneficie del ámbito de la computación.
Pero donde más provecho se está sacando de esta poderosa herramienta que es la informática es el ámbito de la investigación. La capacidad de procesar el genoma humano y de realizar investigaciones sobre él es sólo una pequeña muestra de sus capacidades.
Y desde DeustoTech Computing tenemos varios proyectos para  apoyar este tipo de investigaciones. Uno de ellos es Lipo Universal. Este proyecto ha sido financiado por el Ministerio de Economía y
Competitividad. La labor de coordinación ha sido llevada a cabo por Progenika Biopharma, y se ha desarrollado en colaboración con la Universidad del País Vasco y la Universidad de Zaragoza, desarrollar
una nueva plataforma para el diagnóstico genético de la Hipercolesterolemia Familiar (HF) aplicable a cualquier individuo. Esta herramienta tiene un importante valor aportando información útil para la elección de un tratamiento adecuado para cada uno de los pacientes, desde el punto de vista clínico.

DeustoTech Computing ha participado activamente en la labor del procesado de los datos y en el desarrollo de algunos de los  algoritmos necesarios para el desarrollo de la herramienta. Además, ha sido el encargado del desarrollo tecnológico del producto final, aprovechando el conocimiento de los miembros del consorcio.
Este proyecto ha sido sumamente satisfactorio para DeustoTech Computing por varios motivos. Por un lado, ha supuesto una importante aproximación a un sector estratégico de la economía como es el de la bioinformática. El know-how adquirido por el equipo que lo ha desarrollado en este ámbito es sumamente importante. Además, ha supuesto un acercamiento a los problemas reales a los que, desde el punto de vista de la computación de datos se refiere, se enfrentan en este sector. Esta aproximación ha permitido al equipo identificar una serie de carencias y limitaciones que suponen un reto para los investigadores de DeustoTech Computing. Y ha supuesto la semilla para futuros proyecto en este ámbito que ya se están desarrollando.
Los resultados obtenidos no pueden ser más satisfactorios. Por un lado, ya existe una primera versión de la plataforma. Además esta plataforma es independiente del sistema operativo en el que se lance, pudiendo realizar análisis tanto sobre Windows como
sobre Linux y Mac. Además, esta plataforma ha obtenido la marca CE, que da testimonio por parte del fabricante de que su producto cumple con los mínimos requisitos legales y técnicos en materia de seguridad de los Estados miembros de la Unión Europea, por lo que es posible su comercialización. Esta marca se obtuvo tras la revisión de la detallada y extensa documentación entregada, y atestiguan la posibilidad de su comercialización en todos los países miembros de la unión europea.
Desde el punto de vista científico, ha supuesto la publicación de un artículo en una revista de alto impacto, titulado «Validation of a ce marked tool (seqpro lipo rs) based on next generation sequencing
for diagnosis of familial hypercholesterolemia», que ha sido publicado en el número 235 de Atherosclerosis.
Este proyecto ha supuesto un punto de partida importante para la investigación en un sector que tan importante como el de bioinformática. Gracias a él, el equipo se encuentra en disposición de afrontar este tipo de proyecto con aún más garantías. La salud de todos lo agradecerá.