Estas aquí =>

Inteligencia artificial: regular o no un campo en el que chocan el comercio y la ética

La inteligencia artificial (IA) se desarrolla en medio de preocupación por sus usos maliciosos, el daño accidental que pueden producir los prejuicios inscriptos en su diseño y otros problemas éticos. “Desde los gigantes como Google y Microsoft hasta las startups que se prueban, muchos están fijando principios corporativos para asegurar que sus sistemas se creen y se desplieguen de manera ética”, presentó The New York Times el conflicto que afecta esta tecnología, en una edición especial sobre el tema.

Pero las empresas pueden cambiar su misión, sus objetivos, su administración; la presión financiera puede torcer los principios. Incluso algunas compañías consideran necesaria la regulación: “No queremos ver una carrera hacia el abismo”, dijo al Times Brad Smith, director legal de Microsoft. “La ley es necesaria”.

El artículo recordó el caso de la firma Clarifai, que trabajó con el Pentágono en el diseño de IA que analiza video tomado desde drones. Luego de una crítica de los trabajadores de la firma, Matt Zeiller, fundador y director ejecutivo, anunció que la administración garantizaría una definición de ética para todos los proyectos.

Eso nunca sucedió, agregó el texto. “A medida que esta startup de Nueva York avanzó en las aplicaciones y los servicios de reconocimiento facial para las fuerzas de seguridad, algunos empleados se preocuparon cada vez más por la posibilidad de que su trabajo terminase alimentando la guerra automatizada o la vigilancia masiva”.

A finales de enero pidieron, mediante una carta colectiva, que Zeiler explicara hacia dónde se dirigía la empresa, cuyo producto reconoce objetos en fotos y videos. El CEO dijo que un día contribuirían a las armas autónomas.

“Esta y otras formas de IA que avanzan rápidamente pueden mejorar el transporte, el cuidado de la salud y la investigación científica. O pueden alimentar la vigilancia masiva, los ataques de phishing y la diseminación de noticias falsas”, advirtió el Times. Sin contar con los problemas derivados de su diseño, como que identifican con mucha menos exactitud la cara de una mujer o de una persona afroamericana que la de un hombre blanco.

“Google trabajó en el mismo proyecto del Pentágono que Clarifai, y luego de una protesta de los empleados de la compañía, finalmente canceló su participación”, señaló el artículo. “Pero como Clarifai, otras 20 empresas han trabajado en el proyecto sin ceder a las preocupaciones éticas”.

Tras la polémica, Google estableció una serie de “principios sobre IA”, como guía para proyectos futuros. Pero siguen siendo normas privadas que, además, deben ser interpretadas y aplicadas por ejecutivos que también deben cuidar los intereses financieros de la empresa. “En términos funcionales, hay situaciones en las que los zorros están vigilando el gallinero”, dijo Liz Fong-Jones, quien dejó Google en 2018.

Google, Microsoft, Facebook y otras firmas han creado organizaciones de colaboración como Partnership on A.I., que apunta a guiar las prácticas de toda la industria. Pero los funcionamientos de esas entidades no es siquiera consultivo, mucho menos vinculante.

“El Pentágono ha dicho que la IA construida por empresas como Google y Clarifai no se han utilizado con fines de ataque. Y actualmente crea su propio conjunto de principios éticos, advirtiendo que necesita el apoyo de la industria, que se ha quedado con la mayoría de los principales investigadores de IA del mundo en los años recientes”, agregó el Times.

Pero esos principios difícilmente puedan tener más influencia que los de las grandes corporaciones privadas. “En especial porque el Pentágono tiene que ir al compás de China, Rusia y otros rivales internacionales a medida que desarrollen tecnologías similares”, destacó.

Sin embargo, la carta colectiva de los empleados de Clarifai no se inclinaba abiertamente por la legislación sobre IA. “La regulación demora el progreso, y nuestra especie necesita progresar para sobrevivir a las muchas amenazas que enfrentamos hoy”, escribieron. “Tenemos que ser lo suficientemente éticos para que se nos confíe el desarrollo de esta tecnología por nosotros mismos, y le debemos al público definir nuestras éticas con claridad”.

Y, como otra muestra de la complejidad del debate, Sam Altman —quien hasta hace pocos días, en el momento en que el Times lo invitó a un panel sobre el tema, era presidente de la incubadora de startups Y-Combinator— se opuso. “La idea de que estas empresas que no nos deben rendir cuentas y a la que no elegimos deberían decidir los nuevos dispositivos de seguridad de la sociedad no me parece la forma correcta de actuar”.

Y Evan Spiegel, fundador de Snapchat, se manifestó “muy impresionado” por la legislación de la Unión Europea, cuyo enfoque le pareció “muy bien razonado, muy considerado” y que “realmente pone primero a los consumidores”. En su opinión es necesario hablar del “otro lado del progreso económico, que puede ser la conservación de los valores que nos importan”.

Leer mas...

Facebook lanzó un software de inteligencia artificial para prevenir suicidios

La red social implementará su nueva tecnología de “detección proactiva”, que escaneará todos los datos de la plataforma en búsqueda de patrones de pensamientos que podrían llevar a una persona a atentar contra su vida.

Se trata de un software para salvar vidas: la nueva tecnología de “detección proactiva” de inteligencia artificial de Facebook escaneará todos los mensajes en busca de patrones de pensamientos suicidas y, cuando sea necesario, enviará recursos de salud mental al usuario en riesgo o a sus amigos, o se pondrá en contacto con los servicios de emergencia.

La red social ya había iniciado pruebas de “detección proactiva” en los Estados Unidos, pero ahora expandirá el servicio al resto del mundo, con la excepción de la Unión Europea, cuyas leyes reguladoras de protección de la privacidad prohíben el uso de la tecnología.

“Facebook es un lugar donde los amigos y familiares ya están conectados, y podemos ayudar a reunir a una persona en apuros con personas que pueden apoyarlos”, dijo Guy Rosen, vicepresidente de Gestión de Productos de la empresa.

“Nuestro enfoque fue desarrollado en colaboración con organizaciones de salud mental como Save.org, National Suicide Prevention Lifeline y Forefront Suicide Prevention y con aportes de personas que han tenido experiencia personal al pensar o intentar suicidarse”, agregó.

Por otra parte, en su página oficial de Facebook, Mark Zuckerberg anticipó que, en el futuro, la inteligencia artificial será capaz de entender el lenguaje con aún mayor precisión para prevenir otros tipos de problemas.

“En el futuro, la IA será capaz de comprender más de los sutiles matices del lenguaje y tendrá la capacidad de identificar diferentes temas más allá del suicidio, incluyendo otras expresiones de bullying y manifestaciones de odio”, escribió el CEO de la compañía.

Según Rosen, expertos médicos de salud mental aseguran que una de las maneras más efectivas de ayudar a una persona suicida es conectándolos con sus amigos y familiares queridos, un servicio que la red social tiene el privilegio de poder realizar con cierta facilidad.

Con esta nueva adición, Facebook espera prevenir casos que surgieron en su plataforma en el pasado y que culminaron en tragedia.

INFOBAE

 

Leer mas...

Autos de Google ya circulan por las calles sin chofer

Los vehículos de la empresa Waymo, subsidiaria del gigante tecnológico, iniciaron pruebas en modo totalmente autónomo en Chandler, Arizona.

La empresa Waymo comenzó con las pruebas de vehículos sin piloto en modo completamente autónomo en las calles públicas en la ciudad estadounidense de Chandler, Arizona. El área de prueba está limitada a unos 260 kilómetros cuadrados, pero ya existen planes para expandirla.

En los próximos meses un grupo de voluntarios participará en pruebas que incluyan sus rutinas diarias, como ir a trabajar o a buscar a los chicos de la escuela.

Hasta este momento, sus autos operaban en forma automática pero con un conductor de respaldo sentado detrás del volante. Sin embargo, por razones de seguridad, incluso en esta etapa un ingeniero viajará en la parte de atrás para intervenir en una situación de emergencia (sólo podrán presionar un botón especial que hará que el auto se estacione).

Waymo es una compañía independiente creada por Google exclusivamente para desarrollar su proyecto de autos sin pilotos. La heredera del “Google driverless car” cuenta con un mayor margen de maniobra a nivel operativo, así buscan atraer más capitales dispuestos a invertir en el nuevo sector. Su nombre proviene de la frase “A new way forward in mobility” (Un nuevo camino en movilidad).

Los autos sin piloto comenzaron a desarrollarse hace ocho años y en la actualidad varias empresas compiten por ser las primeras en lanzar el servicio al mercado. Tesla, Uber y Lyft, entre otras decenas de compañías, también están realizando testeos por su cuenta.

 

Leer mas...