11 de noviembre 2018 | 5:00 am
La inteligencia artificial (AI) entra cada vez más de lleno a la vida diaria y, junto con ella, las preocupaciones sobre las reglas que deben regirla.
En enero de 2017, investigadores de AI se reunieron en una conferencia y desarrollaron principios básicos para desarrollar una inteligencia artificial beneficiosa, que fueron respaldados por las principales mentes del mundo de la ciencia y la tecnología, entre ellos Stephen Hawking y Elon Musk.
De esta discusión surgieron 23 principios que tratan de estrategias de investigación, derechos de privacidad y protección de datos e incluso un pronóstico de los futuros que podrían surgir al desarrollar computadoras superinteligentes.
“Esta lista de principios de IA no es de ninguna manera comprensiva y ciertamente está abierta a interpretaciones, pero también subraya cómo el comportamiento común aplicado actualmente alrededor de ciertos temas podría violar los principios que la mayoría de los participantes están de acuerdo en respetar”, detalla el Future of Life Institute, organizador de la reunión.
Puntos en común
Entre las principales preocupaciones está el asegurarse que la Inteligencia Artificial no discrimine, lo cual puede suceder debido a la información que se le entrega, como ocurrió con la tecnología de Amazon para seleccionar nuevos empleados pues, dado que la mayoría de los CV eran de hombres, el bot aprendió a calificar negativamente a las aspirantes femeninas.
“Todos los sistemas deben tratar a toda la gente con justicia”, como enuncia Microsoft este principio guía.
En el tema de la privacidad de datos y tras el escándalo de Cambridge Analytica, Facebook estableció un equipo sobre la ética para supervisar la IA aplica en la empresa y asegurarse de que sea respetuosa de la privacidad.
Al mismo tiempo, en la búsqueda de otorgar beneficios a la sociedad, la red social de Mark Zuckerber ha aplicado su tecnología de reconocimiento de imágenes no sólo para sugerir a qué amigos taggear en tus fotos, sino para identificar posibles casos de abuso infantil.
Además, la plataforma se ha comprometido también a seguir desarrollando algoritmos que detecten las ‘fake news’ y los usuarios y páginas que difunden material discriminatorio de una manera más proactiva.
En el caso de Amazon, el éxito de su asistente de voz Alexa lo ha llevado plantear el incluirle nuevas funciones que le permitan reconocer los estados de ánimo de sus usuarios, para poder recomendarle acciones a seguir, lo que ha renovado las preocupaciones sobre la cantidad de información íntima que podría tener el gigante tecnológico.
El dilema bélico
En sus principios sobre IA, Google afirma su compromiso para nunca crear herramientas que causen daños a otros ni tecnologías que sirvan como armas o violen normas internacionales sobre derechos humanos.
El pronunciamiento del CEO de la empresa, Sundar Pichai, se dio luego de una serie de protestas por sus empleados en contra de los contratos que mantenían con el Pentágono.
La tecnología de inteligencia artificial de Google podría ser usada para hacer más certera la puntería de los drones militares estadounidenses.
Las protestas también se han registrado en Amazon y en Microsoft, que compiten por contratos con el Pentágono, pero mientras Google decidió retirarse de la contienda, estas empresas decidieron seguir.
¿Suficiente?
La publicación de los principios que rigen la Inteligencia Artificial en las empresas ha sido como reacción a críticas y escándalos, más que a acciones iniciadas al interior de las firmas, lo que hace dudar sobre su compromiso real.
Peter Eckersley, científico computacional en jefe de la Electronic Frontier Foundation, considera que las empresas deben someterse a procesos independientes de revisión.
“Si el gobierno quiere hacer una nueva carretera, hay una audiencia pública. Si Amazon quiere convertir tu bocina inteligente en un micrófono para espiarte, tú como usuario no estarías involucrado en la decisión”, advirtió en mayo de este año el reportero de Bloomberg Eric Newcomer, luego que se supo que Alexa había enviado conversaciones de un usuario a otra persona.
¿Te preocupa el avance de la inteligencia artificial? Estos son los principios éticos que rigen en las tecnológicas
Pool CEO
Comparte
11 de noviembre 2018 | 5:00 am
La inteligencia artificial (AI) entra cada vez más de lleno a la vida diaria y, junto con ella, las preocupaciones sobre las reglas que deben regirla.
En enero de 2017, investigadores de AI se reunieron en una conferencia y desarrollaron principios básicos para desarrollar una inteligencia artificial beneficiosa, que fueron respaldados por las principales mentes del mundo de la ciencia y la tecnología, entre ellos Stephen Hawking y Elon Musk.
De esta discusión surgieron 23 principios que tratan de estrategias de investigación, derechos de privacidad y protección de datos e incluso un pronóstico de los futuros que podrían surgir al desarrollar computadoras superinteligentes.
“Esta lista de principios de IA no es de ninguna manera comprensiva y ciertamente está abierta a interpretaciones, pero también subraya cómo el comportamiento común aplicado actualmente alrededor de ciertos temas podría violar los principios que la mayoría de los participantes están de acuerdo en respetar”, detalla el Future of Life Institute, organizador de la reunión.
Puntos en común
Entre las principales preocupaciones está el asegurarse que la Inteligencia Artificial no discrimine, lo cual puede suceder debido a la información que se le entrega, como ocurrió con la tecnología de Amazon para seleccionar nuevos empleados pues, dado que la mayoría de los CV eran de hombres, el bot aprendió a calificar negativamente a las aspirantes femeninas.
“Todos los sistemas deben tratar a toda la gente con justicia”, como enuncia Microsoft este principio guía.
En el tema de la privacidad de datos y tras el escándalo de Cambridge Analytica, Facebook estableció un equipo sobre la ética para supervisar la IA aplica en la empresa y asegurarse de que sea respetuosa de la privacidad.
Al mismo tiempo, en la búsqueda de otorgar beneficios a la sociedad, la red social de Mark Zuckerber ha aplicado su tecnología de reconocimiento de imágenes no sólo para sugerir a qué amigos taggear en tus fotos, sino para identificar posibles casos de abuso infantil.
Además, la plataforma se ha comprometido también a seguir desarrollando algoritmos que detecten las ‘fake news’ y los usuarios y páginas que difunden material discriminatorio de una manera más proactiva.
En el caso de Amazon, el éxito de su asistente de voz Alexa lo ha llevado plantear el incluirle nuevas funciones que le permitan reconocer los estados de ánimo de sus usuarios, para poder recomendarle acciones a seguir, lo que ha renovado las preocupaciones sobre la cantidad de información íntima que podría tener el gigante tecnológico.
El dilema bélico
En sus principios sobre IA, Google afirma su compromiso para nunca crear herramientas que causen daños a otros ni tecnologías que sirvan como armas o violen normas internacionales sobre derechos humanos.
El pronunciamiento del CEO de la empresa, Sundar Pichai, se dio luego de una serie de protestas por sus empleados en contra de los contratos que mantenían con el Pentágono.
La tecnología de inteligencia artificial de Google podría ser usada para hacer más certera la puntería de los drones militares estadounidenses.
Las protestas también se han registrado en Amazon y en Microsoft, que compiten por contratos con el Pentágono, pero mientras Google decidió retirarse de la contienda, estas empresas decidieron seguir.
¿Suficiente?
La publicación de los principios que rigen la Inteligencia Artificial en las empresas ha sido como reacción a críticas y escándalos, más que a acciones iniciadas al interior de las firmas, lo que hace dudar sobre su compromiso real.
Peter Eckersley, científico computacional en jefe de la Electronic Frontier Foundation, considera que las empresas deben someterse a procesos independientes de revisión.
“Si el gobierno quiere hacer una nueva carretera, hay una audiencia pública. Si Amazon quiere convertir tu bocina inteligente en un micrófono para espiarte, tú como usuario no estarías involucrado en la decisión”, advirtió en mayo de este año el reportero de Bloomberg Eric Newcomer, luego que se supo que Alexa había enviado conversaciones de un usuario a otra persona.
Comparte
Pool CEO
Comparte
Twitch: ¿quién es el dueño de la plataforma de transmisiones más popular?
Neuralink, de Elon Musk, obtuvo la aprobación de la FDA para iniciar el estudio de implantes cerebrales en humanos
JPMorgan utilizará IA similar a la de ChatGPT para recomendar inversiones a sus clientes