Cómo hacer una IA que sea buena para las personas

Para un campo que no era muy conocido fuera de la academia hace una década, la inteligencia artificial ha crecido vertiginosamente. Las empresas tecnológicas de Silicon Valley a Beijing están apostando todo, los capitalistas de riesgo están invirtiendo miles de millones en investigación y desarrollo, y se están creando nuevas empresas en lo que parece ser una base diaria. Si nuestra era es la próxima Revolución Industrial, como muchos afirman, la IA es seguramente una de sus fuerzas impulsoras.

Es un momento especialmente emocionante para un investigador como yo. Cuando era un estudiante graduado en ciencias de la computación a principios de la década de 2000, las computadoras apenas podían detectar los bordes nítidos en las fotografías, y mucho menos reconocer algo tan vagamente definido como un rostro humano. Pero gracias al crecimiento de los macrodatos, los avances en algoritmos como las redes neuronales y la abundancia de potentes equipos informáticos, ocurrió algo trascendental: AI pasó de ser un nicho académico al principal diferenciador en una amplia gama de industrias, incluidas la fabricación y la salud. cuidado, transporte y venta al por menor.

Me preocupa, sin embargo, que el entusiasmo por la inteligencia artificial nos impida contar con sus efectos sobre la sociedad. A pesar de su nombre, no hay nada “artificial” en esta tecnología: está hecho por humanos, destinado a comportarse como humanos y afectar a los humanos. Entonces, si queremos que desempeñe un papel positivo en el mundo del mañana, debe estar guiado por las preocupaciones humanas.

Yo llamo a este enfoque “IA centrada en el ser humano”. Consta de tres objetivos que pueden ayudar a guiar responsablemente el desarrollo de máquinas inteligentes.

Primero, la IA necesita reflejar más la profundidad que caracteriza nuestra propia inteligencia. Considera la riqueza de la percepción visual humana. Es complejo y profundamente contextual, y naturalmente equilibra nuestra conciencia de lo obvio con una sensibilidad a los matices. En comparación, la percepción de la máquina sigue siendo llamativamente estrecha.

Algunas veces esta diferencia es trivial. Por ejemplo, en mi laboratorio, un algoritmo de subtitulado de la imagen alguna vez resumió una foto como “un hombre montando a caballo”, pero no observó el hecho de que ambas eran esculturas de bronce. Otras veces, la diferencia es más profunda, como cuando el mismo algoritmo describió una imagen de cebras pastando en una sabana debajo de un arco iris. Si bien el resumen era técnicamente correcto, estaba completamente desprovisto de conciencia estética, al no detectar la vitalidad o profundidad que un humano apreciaría naturalmente.

Esto puede parecer una crítica subjetiva o inconsecuente, pero apunta a un aspecto importante de la percepción humana más allá de la comprensión de nuestros algoritmos. ¿Cómo podemos esperar que las máquinas anticipen nuestras necesidades, y mucho menos contribuyan a nuestro bienestar, sin una idea de estas dimensiones “confusas” de nuestra experiencia?

Hacer que la inteligencia artificial sea más sensible al alcance total del pensamiento humano no es una tarea sencilla. Es probable que las soluciones requieran conocimientos derivados de campos más allá de la informática, lo que significa que los programadores tendrán que aprender a colaborar más a menudo con expertos en otros dominios.

Tal colaboración representaría un regreso a las raíces de nuestro campo, no una desviación de él. Los entusiastas de IA más pequeños pueden sorprenderse al saber que los principios de los algoritmos de aprendizaje profundo de hoy se remontan a más de 60 años para los investigadores neurocientíficos David Hubel y Torsten Wiesel, quienes descubrieron cómo la jerarquía de neuronas en la corteza visual de un gato responde a estímulos.

Del mismo modo, ImageNet, un conjunto de datos de millones de fotografías de capacitación que ayudaron a avanzar en la visión por computadora, se basa en un proyecto llamado WordNet, creado en 1995 por el científico y lingüista cognitivo George Miller. WordNet estaba destinado a organizar los conceptos semánticos del inglés.

La reconexión de la IA con campos como la ciencia cognitiva, la psicología e incluso la sociología nos dará una base mucho más rica sobre la cual basar el desarrollo de la inteligencia artificial. Y podemos esperar que la tecnología resultante colabore y se comunique de forma más natural, lo que nos ayudará a abordar el segundo objetivo de la IA centrada en el ser humano: mejorarnos, no reemplazarnos.

Imagine el papel que la IA podría jugar durante la cirugía. El objetivo no tiene que ser automatizar el proceso por completo. En cambio, una combinación de software inteligente y hardware especializado podría ayudar a los cirujanos a concentrarse en sus fortalezas, rasgos como la destreza y la adaptabilidad, al tiempo que controlan tareas más mundanas y protegen contra los errores humanos, la fatiga y la distracción.

O considere la atención de personas mayores. Es posible que los robots nunca sean los custodios ideales de los ancianos, pero los sensores inteligentes ya se muestran prometedores para ayudar a los cuidadores humanos a centrarse más en sus relaciones con aquellos a quienes cuidan monitoreando automáticamente las dosis de los medicamentos y revisando las listas de seguridad.

Estos son ejemplos de una tendencia hacia la automatización de aquellos elementos de trabajos que son repetitivos, propensos a errores e incluso peligrosos. Lo que queda son los roles creativos, intelectuales y emocionales para los cuales los humanos son aún más adecuados.

Sin embargo, ninguna cantidad de ingenio eliminará por completo la amenaza de desplazamiento laboral. Abordar esta preocupación es el tercer objetivo de la IA centrada en el ser humano: garantizar que el desarrollo de esta tecnología se oriente, en cada paso, por la preocupación por su efecto en los seres humanos.

Las ansiedades actuales sobre el trabajo son solo el comienzo. Otros escollos incluyen los prejuicios contra las comunidades subrepresentadas en el aprendizaje automático, la tensión entre el apetito de AI por los datos y los derechos de privacidad de las personas y las implicaciones geopolíticas de una carrera de inteligencia global.

Enfrentarse adecuadamente a estos desafíos requerirá compromisos de muchas de nuestras instituciones más grandes. Las universidades están en una posición única para fomentar las conexiones entre la informática y los departamentos tradicionalmente no relacionados, como las ciencias sociales e incluso las humanidades, a través de proyectos interdisciplinarios, cursos y seminarios. Los gobiernos pueden hacer un mayor esfuerzo para alentar la educación en informática, especialmente entre las jóvenes, las minorías raciales y otros grupos cuyas perspectivas han sido subrepresentadas en IA. Y las corporaciones deberían combinar su inversión agresiva en algoritmos inteligentes con políticas éticas de AI que atemperan la ambición con responsabilidad.

Ninguna tecnología refleja más a sus creadores que la IA. De hecho, se ha dicho que no hay valores de “máquinas”; los valores de máquina son valores humanos. Un enfoque centrado en el ser humano para la IA significa que estas máquinas no tienen que ser nuestros competidores, sino socios en asegurar nuestro bienestar. Independientemente de la autonomía de nuestra tecnología, su impacto en el mundo, para bien o para mal, siempre será nuestra responsabilidad.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *