Expertos deben preguntarse si la tecnología actual es lo suficientemente confiable, para construir esa confianza si es que no la hay

 

NOTIPRESS.- Con tecnologías como la inteligencia artificial (IA) acaparando cada uno de los sectores en las industrias, los expertos y público en general se cuestionan más sobre su uso. En especial en el sector salud, donde los diagnósticos y tratamientos están en riesgo, es necesario preguntarse si el mundo está lo suficientemente digitalizado y preparado para confiar en dispositivos con IA.

Sobre esta problemática se realizó una charla virtual en el Consumer Electronics Show (CES) 2021 a la cual NotiPress tuvo acceso. Pat Baird, especialista en regulación de Philips, mencionó tres factores para desarrollar la confianza en IA: la confianza técnica, la confianza en regulación y en la interacción humana.

El primer punto es particularmente difícil, pues en sistemas de aprendizaje automático o aprendizaje continuo, la información analizada debe ser suficiente para tareas específicas y abarcar grandes poblaciones. Sin embargo, obtener la información resulta complicado cuando gran parte de los ecosistemas de salud no han sido digitalizados.

Cometer el error de introducir datos de mala calidad o de buena calidad en un contexto donde no sirva resulta crucial en los nuevos dispositivos de IA. La información recolectada en un hospital de oncología en Estados Unidos con el cual se “alimentó” a un sistema de reconocimiento de cáncer podría no servir en un hospital en Argentina.

Toda la información está sesgada, simplemente podríamos no entender por qué“, afirmó Jesse Ehrenfeld, presente en la charla y miembro de la Asociación Médica de Estados Unidos. “Puede ser por el lugar, los pacientes de donde fue tomada podrían no haber sido representativa para la mayoría de la población, o por cómo fue tomada introducir sesgos u otras dificultades“.

Otro dilema es la interacción con los pacientes una vez la tecnología ha sido aprobada para su uso. El rendimiento de cada una de las herramientas debe ser comprobable regularmente para asegurar una óptima operación. Esto resalta en aplicaciones en IA que no fueron creadas pensando en aplicaciones clínicas, sino adaptados a partir de otros usos, una práctica común.

Dentro de esta problemática de la interacción también está en construir confianza en el público general en tecnología IA. Se desarrollan apps y dispositivos amigables a los usuarios, pero existen otros donde sólo el desarrollador entiende el mecanismo o los datos mostrados. La amigabilidad con operadores, profesionales de salud y pacientes debe ser considerada, sobre todo si son dispositivos para uso doméstico.

Los productos y dispositivos en el presente y futuro utilizarán como base tecnologías como IA o machine learning, por ello se necesitan cuestionar su uso y accesibilidad. Para la salud de pacientes y población en general, la confianza es un punto clave que desarrolladores y empresas en IA deben buscar construir para que el proceso de aceptación se sencillo.