IA Riesgos Ocultos en tus Finanzas…
Las empresas utilizan cada vez más algoritmos e inteligencia artificial (IA) para analizar la gran cantidad de datos que recurren sobre nosotros para decidir qué productos financieros calificamos y cuánto pagaremos por ellos.Estas herramientas sofisticadas son utilizadas por los bancos al tomar decisiones de préstamo, por los empleadores que evalúan las solicitudes de empleo y, en la mayoría de los estados, por compañías de seguros de automóviles y de vivienda al establecer primas.
Si se capacita para garantizar la equidad y la precisión, la IA puede ampliar el acceso al crédito y reducir la discriminación causada por el sesgo humano.Si no, puede hacer un enorme daño financiero.
Por ejemplo, si AI niega su solicitud de préstamo, no hay forma de saber por qué se tomó esa decisión o qué datos se usaron.
“Con muchos de los modelos de AI y aprendizaje automático, están aspirando datos de las redes sociales, del uso de aplicaciones digitales en su teléfono, y no tiene idea de lo que hay en esa base de datos que tienen”, dijo Chuck Bell, defensor de la política financiera de Consumer Reports.”Incluso podría ser para otra persona que tiene un nombre similar, y no tú en absoluto”.
La mayoría de los solicitantes no tienen idea de cuándo las decisiones son tomadas por AI.E incluso si lo hicieran, ese proceso de toma de decisiones es opaco, por lo que nunca sabrán qué factores se consideraron.La herramienta AI podría raspar información de Internet sobre el solicitante que es inexacto o totalmente falso.
“Es el problema de la caja negra”, dijo Susan Weinstock, CEO de la Federación de Consumidores de América sin fines de lucro.”Si entran los datos malos, obtendrá datos de basura”, dijo Weinstock en un episodio reciente del podcast Consumerpedia de Checkbook.”Y luego el consumidor está completamente a merced de esos malos datos. Los reguladores ni siquiera saben que el algoritmo está sesgado”.
El año pasado, los informes de consumo y la Federación de Consumidores de Américaent una carta a la Oficina de Protección Financiera del Consumidor alivian que “la discriminación algorítmica puede surgir de muchas fuentes”, como “datos de capacitación no representativos, incorrectos o incompletos, así como datos que reflejan los sesgos históricos”.Esto podría evitar que las comunidades de color y los consumidores de bajos ingresos accedan al crédito asequible, escribieron.
Los sesgos pueden integrarse en modelos de IA durante el proceso de diseño, como cuando las “características protegidas”, como la raza, se usan incorrectamente directamente o a través de los proxies.
Por ejemplo, una base de datos creada para una herramienta de préstamo podría incluir códigos postales, que pueden parecer un factor neutral para el desarrollador, pero podría servir como un proxy de raza, ingresos, género o religión.
“Cuando tienes una discriminación por poder, Bell explicó:” Estás discriminando a una clase protegida de personas que merecen un trato justo, y ni siquiera estás prestando atención al hecho de que tu modelo las lastiman “.Y esa es esencialmente la situación que tenemos “.
IA Riesgos Ocultos en tus Finanzas
La chequera solicitó a la Asociación de AI, un grupo comercial de la industria, que comentara sobre esto, pero no respondió a nuestras solicitudes.
Preocupaciones del consumidor
Una encuesta de 2024 realizada por el consumidor informa que la mayoría de los estadounidenses son “algo incómodos” o “muy incómodos” con AI tomando decisiones de alto riesgo sobre sus vidas, como el análisis de entrevistas de trabajo de video (72 por ciento), detectar posibles inquilinos de alquiler (69 por ciento) y tomar decisiones de préstamos (66 por ciento).
Cuando CR preguntó acerca de solicitar un trabajo con una compañía que usó AI para tomar decisiones de contratación, el 83 por ciento dijo que les gustaría saber en qué información personal utilizó el programa para tomar su decisión y el 93 por ciento dijo que querían la oportunidad de corregir cualquier información personal incorrecta en la que se basara la herramienta de contratación de IA.
La abrumadora incomodidad con permitir que las máquinas tomen decisiones financieras importantes pueden estar bien fundadas.La investigación muestra que la IA puede producir resultados falsos y amplificar sesgos dañinos.
Las herramientas generativas de IA “llevan el potencial de resultados engañosos”, de lo contrario, las advertencias del Instituto de Tecnología de Massachusetts.También se ha encontrado que proporcionan a los usuarios “datos fabricados que parecen auténticos”.Estas imprecisiones “son tan comunes”, señaló el informe, “se han ganado su propio apodo; nos referimos a ellas como” alucinaciones “.
Se necesitan barandas
Los defensores del consumidor dicen que creen que se necesitan nuevas leyes y regulaciones para proteger a los consumidores del uso en constante uso de la toma de decisiones de IA.
“Necesitamos tener una conversación sobre cómo la IA puede ser justa y responsable, y utilizar de una manera que ayude a los consumidores en lugar de detenerlos”, dijo la chequera de CRC Bell.”[Debería haber] una divulgación clara de cuándo se utilizan herramientas algorítmicas, de modo que el consumidor es consciente de que la IA se está utilizando. Y nos gustaría ver que las personas puedan atraer a un ser humano” si un algoritmo rechaza sus aplicaciones.
IA Riesgos Ocultos en tus Finanzas
Consumer Reports quiere reglas estatales y federales que regulen lo que las empresas deben hacer cuando la IA se usa para tomar “decisiones consecuentes” sobre un consumidor, como si califican para un préstamo, son seleccionados para un alquiler de apartamentos, obtener una promoción o ver su seguro R …
Compartir en Twitter: IA Riesgos Ocultos en tus Finanzas