¿Por qué debes prestar más atención a combatir el sesgo de IA?

        Según el informe de DataRobot, casi la mitad de los profesionales de la tecnología están preocupados por el sesgo de AI, sin embargo, muchas organizaciones todavía usan sistemas de IA no confiables
    

        
                                                                                    
                        

                 { } {1945 {194590} {1945908} }
    

     Producto Einstein Analytics de Salesforce para servicios financieros y nuevas herramientas para combatir el sesgo de AI
     Allison Witherspoon de Salesforce habló con TechRepublic sobre los nuevos productos Einstein Analytics específicos de la industria y los nuevos módulos Trailhead diseñados para ayudar a los desarrolladores a abordar el sesgo en la IA.
    

    

A medida que la inteligencia artificial (IA) continúa su marcha hacia las empresas, muchos profesionales de TI están comenzando a expresar su preocupación por el posible sesgo de AI en los sistemas que utilizan.

    
        

                            

Más información sobre inteligencia artificial

                

Un nuevo informe de DataRobot descubre que casi la mitad (42%) de los profesionales de IA en los EE. UU. Y el Reino Unido están “muy” muy “extremadamente” preocupados por la IA parcialidad.

El informe, realizado en junio pasado de más de 350 CIO, CTO, VP y gerentes de TI con sede en EE. UU. Y el Reino Unido involucrados en las decisiones de compra de IA y aprendizaje automático (ML), también encontró que “comprometía la reputación de la marca “y” pérdida de confianza del cliente “son las repercusiones más preocupantes del sesgo de AI. Esto llevó al 93% de los encuestados a decir que planean invertir más en iniciativas de prevención de sesgos de IA en los próximos 12 meses.

VER: Los desafíos éticos de la IA: una guía para líderes (PDF gratuito) (TechRepublic)

A pesar del hecho de que muchas organizaciones ven la IA como un cambio de juego, muchas organizaciones todavía están utilizando sistemas de IA no confiables, dijo Ted Kwartler, vicepresidente de IA de confianza, en DataRobot.

Dijo que el hallazgo de la encuesta de que el 42% de los ejecutivos están muy preocupados por el sesgo de AI no es una sorpresa “dados los errores de alto perfil que las organizaciones han tenido al emplear AI. Las organizaciones deben asegurarse de que los métodos de AI se alineen con sus valores organizacionales”, dijo Kwartler. “Entre los muchos pasos necesarios en una implementación de IA, garantizar que sus datos de entrenamiento no tengan sesgos ocultos ayuda a evitar que las organizaciones reaccionen más adelante en el flujo de trabajo”.

La investigación de DataRobot encontró que, si bien la mayoría de las organizaciones (71% ) actualmente confían en AI para ejecutar hasta 19 funciones comerciales, el 19% usa IA para administrar de 20 a 49 funciones y el 0% aprovecha la tecnología para abordar más de 50 funciones.

Mientras administra AI- Las funciones impulsadas dentro de una empresa pueden ser valiosas, también pueden presentar desafíos, según el informe de DataRobot. “No todas las IA son tratadas de la misma manera, y sin el conocimiento o los recursos adecuados, las compañías podrían seleccionar o desplegar IA de la manera que ser más perjudicial que beneficioso “.

La encuesta encontró que más de un tercio (38%) de los profesionales de IA todavía usan sistemas de IA de caja negra, lo que significa que tienen poca o ninguna visibilidad sobre cómo ingresan los datos Se están utilizando sus soluciones de IA. Esta falta de visibilidad podría contribuir a las preocupaciones de los encuestados sobre el sesgo de IA que ocurre dentro de su organización, dijo DataRobot.

Se está produciendo un sesgo de IA porque “estamos tomando decisiones sobre datos incompletos en sistemas de recuperación familiares”, dijo Sue Feldman, presidenta de la consultoría de cómputo cognitivo y análisis de contenido Síntesis . “Algoritmos todos hacer suposiciones sobre el mundo y las prioridades del usuario. Eso significa que, a menos que comprenda estas suposiciones, seguirá volando a ciegas “.

Es por esto que es importante usar sistemas que incluyan humanos en el circuito, en lugar de tomar decisiones en el vacío, agregó Feldman, quien también es cofundador y director gerente del Consorcio de Computación Cognitiva . Son “una mejora sobre los sistemas completamente automáticos”, dijo.

VER: Gestión de IA y ML en la empresa 2019: los líderes tecnológicos esperan más dificultades que los proyectos de TI anteriores (TechRepublic Premium)

Cómo reducir el sesgo de AI

El sesgo basado en la raza, el género, la edad o la ubicación, y el sesgo basado en una estructura específica de datos, han sido riesgos de larga data en el entrenamiento de modelos de IA, según Gartner.

Además , algoritmos opacos como el aprendizaje profundo pueden incorporar muchas variables implícitas y altamente variables interacciones en sus predicciones que pueden ser difíciles de interpretar, dijo la firma.

Para 2023, el 75% de las grandes organizaciones contratará especialistas forenses en comportamiento de inteligencia artificial, privacidad y confianza del cliente para reducir el riesgo de marca y reputación, Gartner predice .

“Se necesitan nuevas herramientas y habilidades para ayudar a las organizaciones a identificar estas y otras posibles fuentes de sesgo, generar más confianza en el uso de modelos de inteligencia artificial y reducir el riesgo de marca y reputación corporativa”, dijo Jim Hare, vicepresidente de investigación en Gartner, en un comunicado.

“Cada vez más líderes de datos y análisis y directores de datos (CDO) están contratando investigadores forenses y éticos de ML”, agregó Hare.

Organizaciones como Facebook, Google, Bank of America, MassMutual y NASA están contratando o ya han designado especialistas forenses en comportamiento de inteligencia artificial para centrarse en descubrir sesgos no deseados en los modelos de inteligencia artificial antes de su despliegue, dijo Gartner.

Para que la IA alcance su potencial y aumente la confianza humana en los sistemas, se deben tomar medidas para minimizar el sesgo, de acuerdo con McKinsey . Incluyen:

  • Tenga en cuenta los contextos en los que la IA puede ayudar a corregir el sesgo y aquellos en los que existe un alto riesgo de que la IA exacerbe el sesgo
  • Establezca procesos y prácticas para evaluar y mitigue el sesgo en los sistemas de IA
  • Participe en conversaciones basadas en hechos sobre los prejuicios en las decisiones humanas
  • Explore cómo los humanos y las máquinas pueden trabajar mejor juntos
  • Invierta más en la investigación de prejuicios y poner a disposición más datos, al tiempo que restringe la privacidad
  • Invierta más en diversificar el campo de la IA

El estudio DataRobot encontró que para combatir las instancias de sesgo de AI, el 83% de todos los profesionales de IA dicen que han establecido pautas de inteligencia artificial para garantizar que los sistemas de inteligencia artificial se mantengan adecuadamente y produzcan resultados precisos y confiables. Además:

  • 60% ha creado alertas para determinar cuándo los datos y los resultados difieren de los datos de entrenamiento
  • 59% miden los factores de toma de decisiones de IA
  • 56% están implementando algoritmos para detectar y mitigar sesgos ocultos en los datos de entrenamiento

La última estadística sorprendió a Kwartler. “Me preocupa que solo la mitad de los ejecutivos tengan algoritmos para detectar sesgos ocultos en los datos de entrenamiento”.

También se descubrieron diferencias culturales entre los encuestados estadounidenses y británicos en el estudio DataRobot.

Si bien los encuestados de EE. UU. Están más preocupados por el sesgo emergente, que es el sesgo resultante de una desalineación entre el usuario y el diseño del sistema, los encuestados del Reino Unido están más preocupados por el sesgo técnico, o el sesgo derivado de limitaciones técnicas, el estudio encontró .

Para mejorar los esfuerzos de prevención del sesgo de AI, el 59% de los encuestados dice que planea invertir en sistemas de caja blanca más sofisticados, el 54% afirma que contratará personal interno para administrar la confianza de AI, y el 48% dice que tiene la intención de alistarse proveedores externos para supervisar la confianza de AI, según el estudio.

La cifra del 48% debería ser mayor, cree Kwartler. “Las organizaciones necesitan poseer e internalizar su estrategia de inteligencia artificial porque eso les ayuda a garantizar que los modelos de inteligencia artificial se alineen con sus valores. Para cada contexto comercial e industria, los modelos deben evaluarse antes y después de la implementación para mitigar los riesgos”, dijo.

Además de esas medidas de prevención del sesgo de AI, el 85% de todos los encuestados globales creen que la regulación de AI sería útil para definir qué constituye el sesgo de AI y cómo debe evitarse, según el informe.

                                                                                

                                                

Consulte también

“data-credit =” Image: iStockphoto / PhonlamaiPhoto ” rel = “noopener noreferrer nofollow”>  ai-reading-8.jpg

                                            Imagen: iStockphoto / PhonlamaiPhoto
                                        


Source link

Be part of our affiliated companies and receive a 20% discount.
www.onevirtualoffice.com
www.be1radio.com
www.rmcommunik.com
www.beonegroup.ca

Need Help?
Let our experienced staff help with virtual helpdesk. click for details.

Services:
– Laptop and Desktop Repair
– Virus and Malware Removal
– Computer Tune-up
– Remote Assistance
– Data Backup
– Data Recovery
– File Transfer and Sharing
– Hardware Diagnostics
– Antivirus Installation
– Software Installation
– Hardware Upgrades
– New System Setup
– Printer Troubleshooting
-Webmaster,hosting,Logo , Graphic design
-Social media Management
– Networking
– Install Windows Operating System (10, 8, 7, Vista and XP)

Business & Residential Toll Free: 1-800-432-1475 | Direct: (438)488-3296

About rasco

Be Happy the future is friendly.
Allrights Reserved 2007-2018 - Beone Magazine - powered by rasco