Fecor desmenuza ChatGPT

16/06/2023

Miguel Ángel Valero. "El tratamiento de datos personales es uno de los puntos más delicados a la hora de utilizar sistemas de IA", advierte Jesús Jimeno.

Cristina Gutiérrez, directora general de Fecor; Juan Ramón Galvámn, de Fomento de la Cultura Aseguradora y miembro de la Federación Española de Corredores de Seguros; Victoria León, socia-propietaria de Confisegur; Higinio Igesias, CEO de E2K y vicepresidente de Fecor; Jesús Jimeno, abogado de la Federación, y Juan Antonio Marín, presidente, presentaron el 7º Cuadernos Temáticos ‘Chat GPT: el #corredorTech clarifica la charla de la incertidumbre’.

Aunque el análisis se centra en ChatGPT, sus conclusiones se pueden aplicar también a todas las tecnologías de procesamiento de lenguaje natural basada en inteligencia artificial (IA).

La propia ChatGPT reconoce que «los clientes valoran no solo la resolución del problema, sino también el trato humano, la amabilidad y la respuesta personalizada», que proporciona «respuestas asépticas y basadas en información lógica, careciendo de sentimientos y emociones» y también de «la flexibilidad para adaptar la experiencia adquirida a situaciones futuras». No obstante, pide ser considerada «como una herramienta en lugar de una amenaza», ya que «permite a los corredores de seguros disponer de más tiempo para fortalecer lo que los hace indispensables».

«La IA, bien utilizada, puede suponer una herramienta estratégica que ayude a mejorar nuestra eficacia. Sin embargo, es necesario imponer la ética y la protección de los derechos fundamentales, valores inherentes a la labor del corredor de seguros», avisa Juan Antonio Marín.

Higinio Iglesias profundiza en esa idea: «la IA potenciará la capacidad de asesoramiento de los corredores, al brindar acceso instantáneo a una mayor cantidad de información. La posibilidad de analizar grandes volúmenes de datos de manera rápida y precisa permitirá una interpretación y recomendación profesional basada en datos sólidos».

Las ventajas en gestión interna, de proveedores, en comunicación con las aseguradoras, suscripción de pólizas, tramitación de siniestros, reclamaciones, análisis de riesgo, no puede ocultar que ChatGPT puede ofrecer datos y consejos inexactos, insiste el análisis de Fecor.

«El tratamiento de datos personales es uno de los puntos más delicados a la hora de utilizar sistemas de IA», advierte Jesús Jimeno.

Además, ChatGPT puede ser utilizado para estafas y fraudes, para obtener información confidencial de los clientes, realizar delitos informáticos, difamación y calumnias, o violación de derechos de autor, entre otros.

Supervisión humana y formación

El análisis de Fecor recomienda mantener una supervisión humana adecuada, establecer políticas claras de privacidad y seguridad, limitar el acceso a datos sensibles, formar a los corredores en el uso de ChatGPT y en cómo interactuar con el cliente, monitorizar y evaluar el desempeño de la IA.

«La IA puede ayudar a facilitar y agilizar tareas, pero no es capaz de reemplazar la experiencia, conocimiento y habilidades únicas que tiene un corredor»,. subraya Victoria León.

«Al apoyarse en la IA, el CorredorTech obtiene una mayor proyección de futuro, un nuevo marco de trabajo donde la creatividad se afianzará como estrategia de negocio», aporta Cristina Gutiérrez.

¿Te ha parecido interesante?

(+2 puntos, 2 votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.