Siemens Gamesa Microsoft inteligencia artificial drones aerogeneradores

No hace mucho tiempo, los típicos aerogeneradores de los parques eólicos debían ser revisados por técnicos. Algo completamente normal, pero que implica grandes retos: los trabajadores tenían que bajar en rápel por las turbinas –a veces, en situaciones bastante complicadas– para tomar fotografías de, por ejemplo, daños en las aspas. No solo eso: además, otra persona tenía que estar en tierra con otra cámara y un telescopio supervisando el proceso. Y hay que tener en cuenta que estar torres suelen tener 120 metros de altura. 

Siemens Gamesa, ante esta situación, lanzó un proyecto llamado Hermes que era capaz de evolucionar esta trabajo de supervisión con drones automáticos. Estos dispositivos aéreos son capaces de capturar imágenes de alta resolución rápidamente, mientras que la solución analiza las fotos para detectar posibles daños a la pala, una combinación que da como resultado inspecciones más seguras, rápidas y precisas. Pero ahora, una nueva colaboración con Microsoft hará que este proyecto cuente también con servicios en la nube y, sobre todo, con inteligencia artificial. Según la compañía, “la IA, la nube y los grandes datos nos permiten dar un salto cualitativo en términos de innovación y de reducción del coste normalizado de las energías renovables”.

Radicada en España, Siemens Gamesa que gracias a esta alianza sus drones inspeccionen más 1.700 turbinas este año. “Estos dispositivos son fotógrafos rápidos y precisos que capturan alrededor de 400 imágenes de las tres palas de una turbina en 20 minutos. Las imágenes tienen capacidad para formar una visión general del estado de las aspas y de las reparaciones necesarias, pero la necesidad de clasificarlas y unirlas manualmente ha sido un reto”, aseguran desde comunicación.

El papel de la inteligencia artificial en la supervisión 

Lo que hará la parte de Microsoft en el proyecto Hermes –Azure AI– será reconocer imágenes uniendo fotos en un modelo de roto en 34 segundos. Hecho por un técnico, de manera manual, sería “de cuatro a seis horas y podría conducir a errores”. Además, “pueden diferenciar las aspas del agua, el cielo y otros elementos irrelevantes; distinguir grietas y defectos de, por ejemplo, excrementos de aves. También pueden integrar la ubicación de los drones y los datos de zoom de la cámara para una unión precisa, así como clasificar los fallos por tipo y gravedad”, aseguran.

Dejar una respuesta

Please enter your comment!
Please enter your name here