¿Cómo deben usar la inteligencia artificial (IA) las aseguradoras de salud? La respuesta a esta pregunta inusual de política pública, encuentra en un mismo bando al gobernador republicano Ron DeSantis, de Florida, y al gobierno demócrata de Maryland, los dos contra el presidente Donald Trump y el gobernador de California, Gavin Newsom.
La regulación de la inteligencia artificial, en especial su uso por parte de las aseguradoras de salud, se está convirtiendo en un tema que divide políticamente y altera las líneas partidarias tradicionales.
Quienes la impulsan, con Trump a la cabeza, no solo quieren insertar la IA de lleno en el gobierno, como en el experimento de Medicare que la utiliza en las autorizaciones previas (el proceso para autorizar ciertos tratamientos y medicamentos), sino que además buscan frenar a los estados que pretenden poner reglas y límites. Una orden ejecutiva firmada en diciembre busca invalidar la mayoría de los esfuerzos de los estados para regularla, al plantear que existe “una carrera con adversarios por la supremacía” en una nueva “revolución tecnológica”.
“Para ganar, las empresas estadounidenses de IA deben tener la libertad de innovar sin regulaciones engorrosas”, dice la orden de Trump. “Pero la regulación estatal excesiva frustra este imperativo”.
En todo el país, los estados se están rebelando. Al menos cuatro —Arizona, Maryland, Nebraska y Texas— aprobaron el año pasado leyes que limitan el uso de la IA en los seguros de salud. Otros dos, Illinois y California, habían aprobado leyes similares el año anterior.
Los legisladores de Rhode Island se proponen intentarlo de nuevo este año, después de que durante 2025 no lograran sancionar un proyecto que exigía a los organismos reguladores que recopilaran datos sobre el uso de las tecnologías. El año pasado, en Carolina del Norte, una iniciativa que exige que las aseguradoras no utilicen la IA como única base para decidir la cobertura generó interés entre legisladores republicanos.
DeSantis, ex candidato presidencial del Partido Republicano, ha presentado una “Carta de Derechos de la IA”, cuyas disposiciones incluyen restricciones a su uso en la tramitación de reclamos de seguros y el requisito de que un organismo regulador estatal inspeccione los algoritmos.
“Tenemos la responsabilidad de garantizar que las nuevas tecnologías se desarrollen de forma moral y ética, de modo que refuercen nuestros valores estadounidenses, no que los erosionen”, dijo DeSantis durante su discurso anual sobre la situación de su estado en enero.
Lista para regular
Las encuestas muestran que los estadounidenses desconfían de la IA. En diciembre, un relevamiento de Fox News encontró que el 63% de los votantes se describen como “muy” o “extremadamente” preocupados por la inteligencia artificial. La preocupación es mayoritaria en todo el espectro político. Casi dos tercios de los demócratas y poco más de 3 de cada 5 republicanos dijeron tener reparos sobre la IA.
Las tácticas de las aseguradoras de salud para reducir costos también preocupan a la población. Una encuesta de enero de KFF mostró un descontento generalizado en temas como la autorización previa.
En los últimos años, informes de ProPublica y otros medios han destacado el uso de algoritmos para rechazar rápidamente reclamos de seguros o solicitudes de autorización previa, al parecer con muy poca revisión por parte de un profesional de salud.
En enero, el Comité de Medios y Arbitrios de la Cámara de Representantes convocó a ejecutivos de Cigna, UnitedHealth Group y otras grandes aseguradoras para discutir preocupaciones sobre los altos costos de la atención médica.
Cuando se les preguntó directamente, los ejecutivos negaron o evitaron referirse al uso de la tecnología más avanzada para rechazar solicitudes de autorización o descartar reclamos.
La IA “nunca se utiliza para una denegación”, aseguró a los legisladores David Cordani, director ejecutivo de Cigna. Al igual que otras empresas del sector de seguros de salud, la compañía enfrenta demandas por sus métodos para rechazar reclamos, como destacó ProPublica. Justine Sessions, vocera de Cigna, dijo que el proceso de rechazo de reclamos de la empresa “no está impulsado por la IA”.
De hecho, las compañías insisten en presentar la IA como una herramienta de apoyo que no decide sola. Optum, parte del gigante de la salud UnitedHealth Group, anunció el 4 de febrero que implementaría autorización previa impulsada por tecnología, destacando que permitirá aprobaciones más rápidas.
“Estamos transformando el proceso de autorización previa para abordar los puntos de conflicto que genera”, dijo John Kontor, vicepresidente sénior de Optum, en un comunicado de prensa.
Aun así, Alex Bores, científico informático y miembro de la Asamblea de Nueva York, una figura clave en el debate legislativo del estado sobre la IA—que terminó en una ley integral para regular esta tecnología—, aseguró que la IA es un campo que, naturalmente, requiere regulación.
“Muchas personas consideran que las respuestas que reciben de sus aseguradoras son difíciles de entender”, dijo Bores, demócrata que compite por un escaño en el Congreso. “Agregar una tecnología que no puede explicar sus propias decisiones no ayudará a hacer las cosas más claras”.
Al menos una parte del ámbito de la salud —por ejemplo, muchos médicos— respalda a los legisladores y a quienes defienden las regulaciones.
La Asociación Médica Americana (AMA, por sus siglas en inglés) “apoya las regulaciones estatales que buscan más responsabilidad y transparencia de las aseguradoras comerciales que usan herramientas de IA y aprendizaje automático para revisar solicitudes de autorización previa”, dijo John Whyte, su director ejecutivo.
Whyte señaló que las aseguradoras ya utilizan IA y que “los médicos siguen enfrentando retrasos en la atención de los pacientes, decisiones poco claras de las aseguradoras, reglas de autorización inconsistentes y una carga administrativa abrumadora”.
Las aseguradoras responden
Con legislación aprobada o pendiente de aprobación en por lo menos nueve estados, aún no está claro el impacto real que tendrán esas leyes estatales, dijo Daniel Schwarcz, profesor de Derecho en la Universidad de Minnesota. Los estados no pueden regular los planes “autoasegurados”, que utilizan muchos empleadores; solo el gobierno federal tiene esa facultad.
Pero hay problemas más profundos, dijo Schwarcz: la mayoría de las leyes estatales que ha visto exigirían que un ser humano apruebe cualquier decisión propuesta por la IA, pero no especifican qué significa eso en la práctica.
Las leyes no ofrecen un marco claro para entender cuánta revisión es suficiente y, con el tiempo, los humanos tienden a volverse un poco descuidados y simplemente dan el visto bueno a cualquier sugerencia de una computadora, dijo.
Aun así, las aseguradoras ven esta ola de proyectos de ley como un problema.
“En términos generales, la carga regulatoria es real”, dijo Dan Jones, vicepresidente sénior de asuntos federales de la Alliance of Community Health Plans, un grupo comercial que representa a algunas aseguradoras de salud sin fines de lucro. Si las aseguradoras pasan mucho tiempo lidiando con un mosaico de leyes estatales y federales, agregó, eso significa que se dispondrá de “menos tiempo y recursos para enfocarnos en lo que se supone que debemos hacer: asegurarnos de que los pacientes tengan el acceso adecuado a la atención médica”.
Linda Ujifusa, senadora estatal demócrata en Rhode Island, dijo que las aseguradoras se opusieron el año pasado a un proyecto que presentó para restringir el uso de la IA en las denegaciones de cobertura. Fue aprobado en una cámara, pero en la otra no avanzó.
“Hay una oposición enorme” a cualquier intento de regular prácticas como la autorización previa, dijo, y también “una oposición enorme” a señalar a intermediarios —como las aseguradoras privadas o los administradores de beneficios farmacéuticos— “como parte del problema”.
En una carta en la que criticó el proyecto, AHIP, el principal grupo que representa a las aseguradoras, pidió “políticas equilibradas que promuevan la innovación y, al mismo tiempo, protejan a los pacientes”.
“Los planes de salud reconocen que la IA tiene el potencial de impulsar mejores resultados en la atención médica mejorando la experiencia del paciente, cerrando brechas en la atención, acelerando la innovación y reduciendo la carga administrativa y los costos para mejorar el enfoque en la atención al paciente”, dijo Chris Bond, portavoz de AHIP, a KFF Health News.
Y agregó que el sector necesita “un enfoque nacional coherente basado en un marco federal integral de políticas de IA”.
En busca de equilibrio
En California, Newsom ha promulgado algunas leyes que regulan la IA, incluida una que exige que las aseguradoras de salud garanticen que sus algoritmos se apliquen de manera justa y equitativa. Pero el gobernador demócrata ha vetado otras iniciativas con un enfoque más amplio, como un proyecto que imponía más requisitos sobre cómo debe funcionar la tecnología y que exigía revelar su uso a reguladores, médicos y pacientes cuando lo pidieran.
Según Chris Micheli, lobista de Sacramento, es probable que el gobernador quiera asegurarse de que el presupuesto estatal —que se mantiene fuerte gracias a las grandes ganancias de la Bolsa, especialmente de las empresas tecnológicas— no se resienta. Y para eso, dijo, hace falta equilibrio.
Newsom está tratando de “garantizar que ese flujo de dinero continúe y, al mismo tiempo, que haya algunas protecciones para los consumidores de California”, afirmó. Añadió que las aseguradoras consideran que ya están sujetas a una gran cantidad de regulaciones.
La administración Trump parece estar de acuerdo. La reciente orden ejecutiva del presidente propone demandar ante la Justicia y restringir ciertos fondos federales a cualquier estado que apruebe lo que caracteriza como una regulación estatal “excesiva”, con algunas excepciones, como las políticas destinadas a proteger a los niños.
Esa orden posiblemente sea inconstitucional, dijo Carmel Shachar, experta en políticas de salud de la Facultad de Derecho de Harvard. La autoridad para invalidar leyes estatales generalmente recae en el Congreso, explicó, y los legisladores federales consideraron en dos ocasiones, pero finalmente rechazaron, una disposición que prohibía a los estados regular la IA.
“Según nuestro conocimiento previo del federalismo y del equilibrio de poderes entre el Congreso y el Poder Ejecutivo, es muy probable que una impugnación tenga éxito”, dijo Shachar.
Algunos legisladores ven la orden de Trump con mucho escepticismo, y señalan que la administración ha eliminado controles y ha impedido que otros los establezcan, en un grado extremo.
“En este momento, no se trata de decidir si la regulación debe ser federal o estatal”, dijo Alex Bores. “La pregunta es si va a haber regulación a nivel estatal o directamente no va a haber ninguna”.
