Kaspersky subraya la importancia de la cibereseguridad en la IA

30/09/2022

Elena Krupenina (Kaspersky). Los modelos de aprendizaje automático en los que se basan los sistemas complejos de IA generan resultados que escapan a la interpretación humana.

El 30 de septiembre se celebra el Tesla AI Day 2022, un espectáculo anual en el que la
empresa presenta al público sus innovaciones y planes de varias unidades de negocio.
Ya en años anteriores, Tesla anunció productos futuristas como su camioneta eléctrica
ligera Cybertruck; Optimus, un robot humanoide y tecnologías avanzadas para la
conducción autónoma. Las innovaciones presentadas en los eventos del Día de la IA de Tesla demuestran cómo los sistemas de aprendizaje automático e inteligencia artificial pueden utilizarse en la robótica o los vehículos autónomos.

Además de la eficacia y la facilidad de uso de las soluciones basadas en la inteligencia artificial, el aspecto de la ciberseguridad también es importante. Para garantizar la seguridad de un sistema de IA para sus usuarios, hay que tener en cuenta dos ámbitos: los algoritmos no transparentes, que pueden dar lugar a resultados inexplicables, y la privacidad. ¿Por qué exactamente?

La mayoría de los modelos de aprendizaje automático (ML) en los que se basan los sistemas complejos de IA generan resultados o acciones que escapan a la interpretación humana. Estos resultados o acciones pueden ser imprevisibles y poco comprensibles para los humanos. Por ejemplo, si un robot se confunde y coge un objeto en lugar de otro. Los resultados inexplicables pueden provocar riesgos para
el propio sistema y para los humanos. Por lo tanto, los desarrolladores deben considerar los mecanismos y herramientas para evaluar y explicar las decisiones sin explicación tomadas por la IA y luego calibrar sus parámetros y métricas para evitarlo.

Los dispositivos impulsados por la IA pueden utilizar diversos sensores para recoger datos: cámaras, micrófonos, radares, láseres, sensores ultrasónicos, cámaras de infrarrojos y otros. Se necesitan enormes cantidades de datos para garantizar la alta calidad de la IA y es fundamental minimizar el riesgo de divulgación de datos sensibles.

Para abordar esta cuestión, es necesario desarrollar tecnologías de explicación y mejora de la privacidad como, por ejemplo, el procesamiento en el dispositivo y el aprendizaje conjunto, que reducen al mínimo los datos necesarios para el correcto
funcionamiento del modelo.

Elena Krupenina, científica de datos senior en Kaspersky

¿Te ha parecido interesante?

(Sin votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.