Archivo de la etiqueta: big data

Industria 4.0: la transformación digital de la industria

Autor: Jose Luis del Val 
Catedrático del departamento de Telecomunicaciones

El término industria 4.0 se creó en Alemania para hacer referencia a la transformación digital de la industria, también conocida como “Fábrica Inteligente” o “Internet industrial”.

El avance incontenible de Internet ha tenido un impacto radical en la economía y en la sociedad del siglo XXI. La convergencia de las tecnologías de la información (TIC) con la sensórica y la robótica han transformado la internet tradicional en internet de las cosas (IoT). El resultado en la industria ha sido un nuevo modelo organizativo y un cambio disruptivo en la industria que algunos denominan la “cuarta revolución industrial”.

Industria 4.0.

La industria está sometida a una gran presión sobre su competitividad y una robotización aún más intensiva se contempla hoy como oportunidad para reducir costes. Pero, además, han cambiado los intereses de los clientes; los nuevos mercados se basan en la personalización y la creación de nuevos productos y servicios innovadores. Los clientes están más dispuestos a pagar por la experiencia o el servicio que por el producto en sí. Por ello la industria necesita añadir al producto servicios nuevos, experiencia individualizada, capacidad de actualización, lo que pasa por añadir software y conectividad a cualquier producto. La industria 4.0 da respuesta a ambas exigencias y ofrece a Europa la oportunidad de recuperar buena parte de la industria que se perdió en las últimas décadas.

Tecnologías Básicas en que se sustenta la industria 4.0

La industria 4.0 se sustenta en un conjunto de tecnologías clave que, combinadas, posibilitan un nuevo modelo industrial.

La internet móvil y la comunicación M2M son la base de IoT. Permiten intercambiar información entre sistemas y productos, capturar datos, coordinar sistemas y desplegar servicios remotos. Al mismo tiempo, este aumento de conectividad lleva a la necesidad de proteger los sistemas industriales de las amenazas a la seguridad.

El análisis de datos (Big Data) permitirá identificar patrones e interdependencias, encontrar ineficiencias e incluso predecir eventos futuros. Las aplicaciones e infraestructuras ofrecidas en la nube (Cloud Computing) y pagadas por uso (as a service) harán posible el flujo masivo de datos y su análisis con una flexibilidad sin precedentes.

Industria 4.0 (2)

La impresión 3D (Fabricación Aditiva) permite producir objetos tridimensionales a partir de modelos virtuales facilitando crear prototipos, fabricar productos personalizados y una producción descentralizada.

Los sistemas basados ​​en la realidad aumentada permitirán proporcionar a los trabajadores información en tiempo real para mejorar la toma de decisiones e incrementar la seguridad. Los robots colaborativos serán capaces de trabajarán con seguridad junto a los seres humanos, aprendiendo de ellos y ofreciendo autonomía, flexibilidad y cooperación.

Además de la fábrica física, conectada e inteligente, puede construirse una réplica virtual para simular procesos de fabricación completos.

La fábrica inteligente

La fábrica inteligente es el resultado de la fusión de los mundos virtual y físico.

Las piezas base son los productos inteligentes, caracterizados por disponer de electrónica, software embebido y conectividad. Se denominan sistemas ciber-físicos (CPS) y tienen capacidad de interactuar con otros sistemas (M2M) y con humanos. El software les permite auto-gestionarse y tomar decisiones descentralizadas. Equipados con sensores captan información sobre su entorno, su uso y estado que pueden proporcionar a quien lo fabricó o gestiona su servicio. Sobre los CPS pueden ofrecerse servicios inteligentes y establecer nuevos modelos de negocio, aprovechando combinaciones innovadoras de servicios inteligentes para incrementar la creación de valor, aguas arriba o abajo de la cadena de valor.

Estos mismos principios se aplican a las máquinas que los fabrican, los sistemas de producción ciber-físicos (CPPS), que constituyen la “Fábrica Inteligente”. Son máquinas con capacidad de comunicación, personalización, adaptación al entorno y flexibilidad.

Industria 4.0 (3)La cadena de suministro inteligente y conectada es otra pieza central en la Industria 4.0. Los flujos físicos se replican en una imagen virtual a través de materiales y piezas etiquetadas con RFID. A lo largo de la cadena de suministro, los CPS generan datos sobre su posición y estado. La digitalización permite automatizar los procesos e identificar al producto a lo largo del proceso. La visibilidad de los movimientos en la red de suministro permite reconocer ineficiencias y riesgos, aumentar la robustez y la capacidad de respuesta a incidencias, incrementar la fiabilidad y disminuir los costes.

El resultado es una cadena de producción donde cada sistema es capaz de obtener la información que necesita. La fábrica se convierte en una red de agentes que toman decisiones optimizadas. La producción puede organizarse según un modelo donde la capacidad de los sistemas es la oferta y la demanda surge de las órdenes que deben atenderse. Cada CPPS puede decidir su programa de producción en base a su tiempo de procesamiento, las fechas de entrega u objetivos de beneficio o sostenibilidad. Gracias a su autogestión, productos y máquinas inteligentes se vuelven invisibles a los operadores y sólo precisan atención cuando precisan mantenimiento.

Informática, ayer hoy y mañana

ASIER PERALLOS
Director del Departamento de Ingeniería Informática

Diploma Soluciones Internet

Son ya muchos años de mi vida vinculados al mundo de la informática. Primero como mero aficionado, después también como estudiante y hoy en una triple vertiente como profesional de la  misma. Cuando echo la vista atrás y busco los orígenes de este vínculo, me vienen a la cabeza aquellos ordenadores Spectrum de 48k y almacenamiento en cinta de casete convencional y esos programas en lenguaje BASIC que transcribíamos en el colegio, que dibujaban diversas formas en la pantalla y que nadie intuía para qué servían en realidad. Por aquellos años debía empezar a dilucidar cuál pudiera ser mi carrera profesional y todo el mundo me aseguraba que «la informática es la profesión del futuro». Y no pocos de ellos me decían que «de la Universidad de Deusto salen los mejores profesionales en esta disciplina».

Desconozco si estos consejos fueron los que me hicieron inclinarme por esta profesión, pero lo cierto es que aún hoy los recuerdos. Han cambiado mucho las cosas desde entonces, no en vano han pasado ya más de 25 años. Pronto surgió algo llamado Internet, que llegó para quedarse entre nosotros. Al mismo tiempo la inteligencia y la conectividad iban poco a poco impregnando distintos dispositivos y electrodomésticos en nuestros hogares. Después surgieron los teléfonos móviles, que cada vez se fueron haciendo más inteligentes. Su capacidad para proveer servicios digitales de consumo general era tal, que pronto aparecieron distintos modelos y tamaños de tabletas electrónicas. También las redes sociales vieron la luz, veremos aun si como moda pasajera o no. No mucho más tarde el concepto de «la nube» ha irrumpido como un término tecnológico destinado a cambiar nuestras vidas y no sólo como ese lugar en el que evadirse de vez en cuando. Hoy empezamos a escuchar con cada vez más fuerza términos como «Big Data» que pretenden dotar a los humanos de un conocimiento extraordinario a través del análisis computacional de ingentes cantidades de datos recolectados por los miles de dispositivos, sensores y redes que campan a nuestro alrededor.

Vivimos surfeando sobre olas tecnológicas tremendamente ilusionantes, tanto desde una perspectiva de usuario como profesional. Olas que promueven importantes cambios sociales y económicos. Olas que generan continuamente oportunidades de negocio y empleo, en torno a las cuales se posicionan hornadas de profesionales. Olas que renuevan y arrasan con lo anterior. En ese sentido, la informática se ha convertido en una disciplina con algunas semejanzas tradicionalmente atribuidas a los médicos:
estudiar y reciclarse a lo largo de toda la vida y alta especialización en una u otra área.

Como parte del equipo de la Facultad de Ingeniería de la Universidad de Deusto y ahora como director del departamento de Ingeniería Informática tengo la responsabilidad compartida de que nuestra oferta académica sea la más adecuada para formar profesionales íntegros que naveguen adecuadamente en este escenario cambiante: grados en informática que doten de versatilidad al estudiante, másteres profesionalizantes que le aproximen al mundo laboral, y postgrados y formación continua  altamente especializada para los profesionales a lo largo de su vida.

No deja de ser paradójico que en un mundo tan dinámico y de continuo cambio vertiginoso como el descrito, esos consejos que me dieron cuando era un adolescente, hace ya más de un cuarto de siglo,
estén vigentes y pudiera dárselos hoy a mi hijo sin riesgo a equivocarme.

El tamaño sí es importante

IGOR SANTOS GRUEIRO
Investigador de DeustoTech Computing y profesor en la Facultad de Ingeniería
isantos@deusto.es
@santos_grueiro
Blog s3lab.deusto.es/blog

Big-Data1

Creo que entre las mejores definiciones que he leído de «Big Data» cabría destacar la pronunciada por Dan Ariely: «Big Data es como el sexo en la adolescencia: todo el mundo habla sobre ello, pero nadie sabe realmente cómo se hace, así que todo el mundo dice que lo está haciendo». Habiendo trabajado en análisis de datos, no puedo sino ver un abuso de un buzzword hasta para definir «datos que no caben en hoja de excel».
Pese al escepticismo, creo que hemos pasado a una realidad en la que los datos son vitales. Peter Sondergaard, vicepresidente de la reputada consultora Gartner, dijo: «La información es la gasolina del siglo 21 y el análisis de datos el motor de combustión». La democratización de los servicios online genera una gran cantidad de datos listos para convertirse en valiosa información.
En el aprendizaje automático hay métodos que a partir de datos, pueden traducir texto, sugerir búsquedas, predecir trayectorias de automóviles… y además han sabido adaptarse a la mayor cantidad de datos con nuevas y más robustas tecnologías.

Pero, ¿no habéis sentido en ocasiones que vuestros datos en la red ya no son vuestros? Yo sí. Cuando utilizamos una red social para reconectar con algunos compañeros de instituto o cuando subimos ficheros a un sistema de almacenamiento en la nube, hemos de ser conscientes de sus riesgos. ¿Y todo el mundo entiende esto? Permitidme que lo dude…
Con Big Data, podemos ir mucho más allá, correlacionando datos de texto, imágenes (metadatos y las propias imágenes), datos  localización, etc.. Ser o no consciente, no tiene tanta importancia. Por ejemplo, aunque tengamos una cuenta de twitter, blindada y anónima, podríamos saber quién está detrás —en mi equipo identificamos a los autores de un caso de ciberbullying mediante el texto de la cuenta que los acosadores usaban—. Y es que de cara a nuestros datos online, tenemos demasiadas plataformas, contextos, etc. El único aspecto en el que centrar la privacidad es el usuario. S3Lab – DeustoTech Computing trabaja en una iniciativa que llamamos «User Centric , Context Aware, Cross-Platform Security & Privacy» para que los datos y la seguridad vuelvan (o estén) en manos del usuario. ¿Esto significa que «Big Data» es «malo»? No, es presente y es futuro. Lo único, dejadme que os aconseje,  inspirándome en la definición de Dan Ariely: «El Big Data es como el sexo adolescente. Mejor si tomamos precauciones.»

Sigue leyendo El tamaño sí es importante

¿Qué puede aportar el análisis masivo de datos a mi organización?

ALEX RAYÓN
Profesor e investigador en la Facultad de Ingeniería

Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.
Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.

Según Gartner, en 2015 van a ser necesarios 4,4 millones de personas formadas en el campo del análisis de datos y su explotación. En este sentido, McKinsey sitúa en torno al 50% la brecha entre la demanda y la oferta de puestos de trabajo relacionados con el análisis de datos en 2018. Por lo tanto, y ante la
gran divulgación que está teniendo el término, seguramente no os tenga que introducir mucho el concepto Big Data.
Son sistemas informáticos que manejan y procesan grandes volúmenes de datos, y que en palabras del profesor Viktor Mayer de la Oxford Internet Institute, nace y se define como el eterno sueño de la estadística: que no haya que muestrear, sino que podamos analizar todos los datos generados en un entorno dado. Que no haya que analizar un todo considerando sus partes (representativas, claro). Según vimos los avances en la capacidad de procesamiento de datos, en el abaratamiento del hardware y en la cantidad de datos que se estaban generando (redes sociales, movilidad, la Nube, ciudades y redes inteligentes, etc.), pensamos que los ordenadores iban a ser capaces de procesar grandes volúmenes de datos. Todos los datos; y que entonces íbamos a poder aplicar técnicas estadísticas para sacar muchas conclusiones de todo ello. Y esto, claro está, representa una oportunidad para las organizaciones, empresas y personas que quieran tratar y analizar los datos para obtener valor para la toma de decisiones o para sus clientes: ayudar
a las empresas a vender más (detectando patrones de compra), a optimizar costes (detectando cuellos de botella o desperdicios), a encontrar más clientes (por patrones de comportamiento), a detectar puntos de mejora en procesos (por regularidades
empíricas de mal funcionamiento) y un largo etcétera.
Pero, en este mundo del Big Data, hay demasiados falsos positivos (como señala Kaiser Fung, autor de Number Sense). Para evitarlos, se debe:

  1. Hacer Big Data con un marco teórico que entienda, represente y modelice el dominio de conocimiento que se está estudiando (no sea que vayamos a correlacionar la desaparición de los piratas con el cambio climático);
  2. Una muestra significativa (y aquí, el tamaño no lo es todo);
  3. Significatividad estadística (que la relación no brote de la aleatoriedad).

Con estos tres elementos en la mano, y desplegando los análisis de datos en los procesos de negocio de las organizaciones, sí que podremos hablar del valor en torno al dato. Sí que podremos decir que estamos ayudando a las organizaciones a gestionar el día a día en torno a las evidencias. Cabe hacer, para concluir, una observación. Esto del Big Data va más de preguntas que de respuestas. Por lo que,
mira a tu alrededor, y empieza a plantearte preguntas que podamos, analíticamente, responder. Esto es el Big Data.

 

Open Data en las administraciones públicas

MIKEL EMALDI      m.emaldi@deusto.es
Investigador de DeustoTech Internet

Red de fuentes de conocimiento Open Data. Fuente: Wikipedia
Red de fuentes de conocimiento Open Data. Fuente: Wikipedia

El movimiento Open Data promueve que los datos puedan ser accedidos, utilizados, modificados y compartidos libremente, sin restricciones y para cualquier propósito[1]. Vinculado estrechamente (pero no exclusivamente) a la idea de Gobierno Abierto (Open Government), a través de los datos abiertos se pretende conseguir una administración pública más transparente
sobre la cual poder ejercer un mayor control por parte de la ciudadanía.
Su principal contribución es el aumento de la transparencia y el control democrático de las instituciones a través de la participación ciudadana. Proyectos como Aurrekontuak[2] o «¿Dónde van mis impuestos?»[3] serían irrealizables sin ellos. De la misma manera, mecanismos de participación ciudadana como Irekia[4] o «We the People»[5] serían impensables si previamente los ciudadanos no pudiésemos acceder a los datos de manera sencilla e imparcial, ya que todo proceso de participación ciudadana requiere una ciudadanía correctamente informada. Por otra parte, una sociedad
bien informada tomará mejores decisiones, tanto individualmente
como colectivamente.
Y parece que los diferentes gobiernos se han dado cuenta de ello. Iniciativas como data.gov (EEUU) y data.gov.uk (UK) dieron paso a multitud de iniciativas nacionales, autonómicas y municipales. En el
caso de España, ya sea por convicción o «impulsadas» por la recién nacida (y no poco cuestionada) ley de transparencia, una multitud de administraciones han lanzado sus propios portales de Open Data. A
iniciativas veteranas como la del Ayuntamiento de Zaragoza[6] u Open Data Euskadi[7], se han sumado portales como Aragón Open Data[8], Ayuntamiento de Madrid[9] u Open Data Canarias[10], entre otros.

Pero como en todo, también existe la otra cara de la moneda: portales que en vez de crecer se estancan, o directamente desaparecen. El caso de Open Data Córdoba es especialmente lamentable, ya que cesó su actividad tras una inversión de 382.000 € y apenas un año de vida.
Pero no cantemos victoria todavía: la mera existencia de portales de datos abiertos no asegura ni la transparencia, ni la participación ciudadana, ni un mayor control democrático. La utilización de formatos no estándar y no reutilizables, la translucidez de la nueva ley frente a la transparencia total o la incapacidad y  esconocimiento
de una parte de la ciudadanía a la hora de acceder a estos recursos son obstáculos a superar.
Por nuestra parte, desde DeustoTech-Internet (MORElab) intentaremos abordar estos desafíos a través del proyecto europeo H2020 recientemente aprobado: «WeLive: A neW concept of pubLic administration based on citizen co-created mobile urban services».

1 http://opendefinition.org/
2 http://aurrekontuak.irekia.euskadi.net
3 http://dondevanmisimpuestos.es/
4 http://www.irekia.euskadi.net/es/proposals
5 https://petitions.whitehouse.gov/
6 https://www.zaragoza.es/ciudad/risp/
7 http://opendata.euskadi.net/
8 http://opendata.aragon.es/
9 http://datos.madrid.es/portal/site/egob/
10 http://www.opendatacanarias.es/

 

 

Los datos están aquí o la Big Data Revolution

Evento.BigDataRevolution

Dirigido por Jaime Mira Director, técnico del ICIL, varias empresas  abordaron varios casos prácticos donde mostrarán, cómo a través de herramientas de Minería de Datos y Business Intelligence, se solucionan problemas complejos desde un punto de vista visual e intuitivo.
LIS-Solutions Ingeniería, especializada en el análisis de datos de la cadena de suministro, presentará un ejemplo de cómo, a través de árboles de decisión y herramientas de Business Intelligence, se  detectó la rotura de la cadena de frio en un operador logístico y de su impacto en la empresa, así como de los motivos de esta pérdida de frio. Deustotech, con experiencia en el análisis de datos e inteligencia computacional, desarrollará un caso de éxito sobre una empresa del sector siderúrgico en el que realizarán un análisis predictivo sobre la probabilidad de falla de piezas en un entorno productivo. Finalmente la empresa Funtsak dedicada a la gestión visual de la información, abordará la importancia del análisis cognitivo de la información y de cómo interpreta este la misma y mostrará de forma práctica cómo influye la forma en el contenido. Esta jornada se enmarca dentro del programa de acercamiento de las tecnologías del análisis de datos a las empresas, que  LIS-Solutions llevará a cabo en Bilbao, Madrid y Barcelona de la mano del ICIL.