8 de mayo 2021 | 5:00 am
Por: Santiago Íñiguez*
Los científicos y escritores que especulan sobre el futuro de la inteligencia artificial y cómo impactará en nuestra sociedad suelen construir escenarios que se mueven entre dos extremos: las utopías, donde el progreso genera mejores condiciones y los ciudadanos son felices; y las distopías, donde el desarrollo deriva en sociedades represivas con habitantes amargados e incluso conduce a la extinción humana.
Esta evolución prodigiosa del mundo se apoya en la suposición de que el “machine learning” experimentará un desarrollo exponencial en los próximos años.
El machine learning es la mejor forma de inteligencia artificial autónoma no programada por sus diseñadores, que junto con el deep learning -asociación de datos e información de formas sofisticadas no lineales, resultarán en ciborgs capaces de conocer, innovar e incluso sentir. Se trata de un argumento plausible, porque la experiencia muestra que la realidad siempre ha superado a la ficción, y que el ingenio humano ha creado productos que exceden nuestra imaginación.
La pregunta que se plantean muchos es si estos computer overlords o jefes cibernéticos que resulten del desarrollo tecnológico serán intrínsecamente buenos o serán malvados.
Entre los incondicionales sobre la bondad predominante de las formas de inteligencia artificial, se incluyen Ray Kurtzweill, director de ingeniería de Google, Peter Diamandis fundador de Singularity University -cuyo motto es “la mejor manera de predecir el futuro es crearlo tú-, o Peter Thiel, confundador de Paypal.
Entre los que temen sus resultados potenciales, Bill Gates, fundador de Microsoft, Elon Musk, creador de Tesla o el desaparecido científico Stephen Hawking.
Max Tegman, profesor en MIT, explica que la AGI (artificial general intelligence) evoluciona de forma acelerada, a una velocidad que ni siquiera sus creadores puede prever. En el relato ficticio que abre su último libro, Life 3.0, un grupo de científicos crea un prodigioso ingenio, Prometeo, cuya capacidad intelectual se va acrecentando de forma exponencial con el funcionamiento.
En las primeras fases, Prometeo conquista para sus dueños el poder político y económico del mundo, dado que una economía de los datos y la información es capaz de controlar e influir en las decisiones claves y distribución del valor. Para evitar que Prometeo se les vaya de las manos, sus dueños pueden desconectarlo y así evitar su acceso a redes externas y un desarrollo incontrolado. No obstante, mediante el aprendizaje Prometeo consigue franquear esas barreras y alcanzar plena autonomía de sus dueños, convirtiéndose finalmente en el supremo regulador del mundo.
La distopía contada por Tegman es inquietante, y recuerda episodios parecidos de la literatura y el cine, como por ejemplo HAL (Heuristically programmed Algorithmic computer), el protagonista cibernético de la novela de Arthur C. Clarke 2001 Odisea en el Espacio. HAL es el computador central encargado de gestionar todas las funciones vitales de la nave espacial Discovery, y su comportamiento cambia durante la travesía,
Ante estas visiones divergentes sobre cómo evolucionan los ciborgs o autómatas, ¿qué es lo que produce que se conviertan en seres inteligentes buenos, normales o malvados? Mi tesis es que dependerá de la disposición moral, o de las creencias de sus creadores. Al tratarse de productos creados por seres humanos, intentarán proyectar su imagen o semejanza -si se me permite usar la expresión del Génesis-, desearán reproducirse intelectualmente en sus invenciones.
Si los seres humanos quieren propagarse en sus obras, y nos interesa anticipar si el resultado será bueno, malo o inocuo, es oportuno tener en cuenta dos grandes visiones que los filósofos ha formulado acerca de la naturaleza humana.
Para Jean-Jacques Rousseau, el padre del contractualismo, “el hombre es bueno por naturaleza” y se corrompe al entrar a vivir en sociedad. Su filosofía es la que alimentó el mito del “buen salvaje”, la creencia de que los humanos que han crecido ajenos a la civilización son inocentes y puros. Este modelo re recreó en novelas como Tarzán de los Monos o El Libro de la Selva, donde el estado de naturaleza es la vida humana en plenitud, y la integración en sociedad fuente de frustraciones.
La sociedad, en opinión de Rousseau, cercena las libertades de los individuos y acrecienta la desigualdad.
Es comprensible que Rousseau desconfiara de los beneficios de la comunidad porque su vida fue una secuencia de fiascos y contradicciones. Un detalle chocante es que cediera a sus propios hijos al hospicio en la convicción -o molicie- de que la familia de su mujer no podía facilitarles mejor formación, o los múltiples desencuentros que tuvo no solo con sus detractores sino también con sus amigos.
Si confiamos en que la disposición buena innata en el hombre se proyecta en sus creaciones, también los ingenios de AI podrían ser buenos. Un ejemplo en la literatura es la protagonista de la última novel de Kazuo Ishiguro, Klara y el Sol, una autómata al servicio de niños, que proporciona compañía, cariño y amistad, e incluso está dispuesta a inmolarse si fuera preciso por su dueña.
En el extremo contrario, para Thomas Hobbes, el “hombre es un lobo para el hombre” y solo mediante la promulgación de derecho y el monopolio del poder por parte del estado es como se garantiza la supervivencia de los humanos. La alternativa a la sociedad es el desorden e incluso la extinción.
Como en el caso de otros filósofos, el pensamiento de Hobbes tiene una justificación histórica. Vivió la guerra civil inglesa de 1642 y tuvo que exiliarse con algunos partidarios del rey Carlos a Amsterdam, donde escribió su obra clásica Leviathan.
Si los humanos tienen una inclinación hacia la perversión o el mal, sus productos también participarán de es orientación. El arquetipo de robot malvado es posiblemente el mencionado Hal, que con el tiempo evoluciona de la competencia consumada en el manejo de la misión a un proceder asesino, liquidando a casi toda la tripulación.
El comportamiento de Hal es alarmante, especialmente si se considera que una de los instintos claves de cualquier forma de inteligencia, también artificial, sería el de supervivencia, y en caso de conflicto con otras formas de vida optarían por su propia subsistencia. Técnicamente, además, podrían tener más durabilidad que los frágiles seres humanos.
Cabe una tercera visión, que sostenga que la tecnología es moralmente inocua. Los robots, de entrada, no son ni ángeles ni demonios. Como explica Daniela Rus, Director del MIT Computer Science and Artificial Intelligence Lab, “es importante que las personas comprendan que la AI no es más que una herramienta. Como cualquier otra herramienta, no es ni intrínsecamente buena ni mala. Es únicamente lo que elegimos hacer con él. Creo que podemos hacer cosas extraordinariamente positivas con la AI, pero no es un hecho que eso suceda.”
En todo caso, la clave para poder hablar de autómatas buenos o malos es que disfruten de genuina libertad. Sin libertad no hay responsabilidad moral ni se puede hablar propiamente de intencionalidad. Con la evolución del “machine learning” cabría esperar que los ingenios de AI tuvieran la autonomía para pensar y decidir por sí mismos, y por lo tanto de ser responsables.
Del análisis sobre las visiones alternativas acerca de la naturaleza humana, proporcionadas por Rousseau y Hobbes, cabe plantearse desde la perspectiva personal, cuál de las orientaciones es la que se practica sistemáticamente.
Propongo un test, que tiene que ver con el legado que te gustaría dejar tras de ti en tu trabajo. Cuando piensas en planes de sucesión para tu propio puesto, o en tu empresa, ¿intentas seleccionar mejores personas que tú?
*Santiago Íñiguez es presidente de IE University, España. Es licenciado en Derecho, Doctor en Filosofía Moral, Jurídica y del Estado y alumno reconocido de Oxford. Es autor de varios libros como ‘The Learning Curve: How Business Schools Are Reinventing Education’ (2011), ‘Los Nuevos Líderes Globales’, LID 2019-, y ‘In An Ideal Business: How the Ideas of 10 Female Philosophers bring Values to the Workplace’ (publicación prevista en 2020).
Este texto es una columna de opinión. Su contenido es responsabilidad del autor y no representa necesariamente la postura de EL CEO.
Jefes cibernéticos, ¿serán buenos o malos? Hobbes contra Rousseau
IE Business School
Comparte
8 de mayo 2021 | 5:00 am
Por: Santiago Íñiguez*
Los científicos y escritores que especulan sobre el futuro de la inteligencia artificial y cómo impactará en nuestra sociedad suelen construir escenarios que se mueven entre dos extremos: las utopías, donde el progreso genera mejores condiciones y los ciudadanos son felices; y las distopías, donde el desarrollo deriva en sociedades represivas con habitantes amargados e incluso conduce a la extinción humana.
Esta evolución prodigiosa del mundo se apoya en la suposición de que el “machine learning” experimentará un desarrollo exponencial en los próximos años.
El machine learning es la mejor forma de inteligencia artificial autónoma no programada por sus diseñadores, que junto con el deep learning -asociación de datos e información de formas sofisticadas no lineales, resultarán en ciborgs capaces de conocer, innovar e incluso sentir. Se trata de un argumento plausible, porque la experiencia muestra que la realidad siempre ha superado a la ficción, y que el ingenio humano ha creado productos que exceden nuestra imaginación.
La pregunta que se plantean muchos es si estos computer overlords o jefes cibernéticos que resulten del desarrollo tecnológico serán intrínsecamente buenos o serán malvados.
Entre los incondicionales sobre la bondad predominante de las formas de inteligencia artificial, se incluyen Ray Kurtzweill, director de ingeniería de Google, Peter Diamandis fundador de Singularity University -cuyo motto es “la mejor manera de predecir el futuro es crearlo tú-, o Peter Thiel, confundador de Paypal.
Entre los que temen sus resultados potenciales, Bill Gates, fundador de Microsoft, Elon Musk, creador de Tesla o el desaparecido científico Stephen Hawking.
Max Tegman, profesor en MIT, explica que la AGI (artificial general intelligence) evoluciona de forma acelerada, a una velocidad que ni siquiera sus creadores puede prever. En el relato ficticio que abre su último libro, Life 3.0, un grupo de científicos crea un prodigioso ingenio, Prometeo, cuya capacidad intelectual se va acrecentando de forma exponencial con el funcionamiento.
En las primeras fases, Prometeo conquista para sus dueños el poder político y económico del mundo, dado que una economía de los datos y la información es capaz de controlar e influir en las decisiones claves y distribución del valor. Para evitar que Prometeo se les vaya de las manos, sus dueños pueden desconectarlo y así evitar su acceso a redes externas y un desarrollo incontrolado. No obstante, mediante el aprendizaje Prometeo consigue franquear esas barreras y alcanzar plena autonomía de sus dueños, convirtiéndose finalmente en el supremo regulador del mundo.
La distopía contada por Tegman es inquietante, y recuerda episodios parecidos de la literatura y el cine, como por ejemplo HAL (Heuristically programmed Algorithmic computer), el protagonista cibernético de la novela de Arthur C. Clarke 2001 Odisea en el Espacio. HAL es el computador central encargado de gestionar todas las funciones vitales de la nave espacial Discovery, y su comportamiento cambia durante la travesía,
Ante estas visiones divergentes sobre cómo evolucionan los ciborgs o autómatas, ¿qué es lo que produce que se conviertan en seres inteligentes buenos, normales o malvados? Mi tesis es que dependerá de la disposición moral, o de las creencias de sus creadores. Al tratarse de productos creados por seres humanos, intentarán proyectar su imagen o semejanza -si se me permite usar la expresión del Génesis-, desearán reproducirse intelectualmente en sus invenciones.
Si los seres humanos quieren propagarse en sus obras, y nos interesa anticipar si el resultado será bueno, malo o inocuo, es oportuno tener en cuenta dos grandes visiones que los filósofos ha formulado acerca de la naturaleza humana.
Para Jean-Jacques Rousseau, el padre del contractualismo, “el hombre es bueno por naturaleza” y se corrompe al entrar a vivir en sociedad. Su filosofía es la que alimentó el mito del “buen salvaje”, la creencia de que los humanos que han crecido ajenos a la civilización son inocentes y puros. Este modelo re recreó en novelas como Tarzán de los Monos o El Libro de la Selva, donde el estado de naturaleza es la vida humana en plenitud, y la integración en sociedad fuente de frustraciones.
La sociedad, en opinión de Rousseau, cercena las libertades de los individuos y acrecienta la desigualdad.
Es comprensible que Rousseau desconfiara de los beneficios de la comunidad porque su vida fue una secuencia de fiascos y contradicciones. Un detalle chocante es que cediera a sus propios hijos al hospicio en la convicción -o molicie- de que la familia de su mujer no podía facilitarles mejor formación, o los múltiples desencuentros que tuvo no solo con sus detractores sino también con sus amigos.
Si confiamos en que la disposición buena innata en el hombre se proyecta en sus creaciones, también los ingenios de AI podrían ser buenos. Un ejemplo en la literatura es la protagonista de la última novel de Kazuo Ishiguro, Klara y el Sol, una autómata al servicio de niños, que proporciona compañía, cariño y amistad, e incluso está dispuesta a inmolarse si fuera preciso por su dueña.
En el extremo contrario, para Thomas Hobbes, el “hombre es un lobo para el hombre” y solo mediante la promulgación de derecho y el monopolio del poder por parte del estado es como se garantiza la supervivencia de los humanos. La alternativa a la sociedad es el desorden e incluso la extinción.
Como en el caso de otros filósofos, el pensamiento de Hobbes tiene una justificación histórica. Vivió la guerra civil inglesa de 1642 y tuvo que exiliarse con algunos partidarios del rey Carlos a Amsterdam, donde escribió su obra clásica Leviathan.
Si los humanos tienen una inclinación hacia la perversión o el mal, sus productos también participarán de es orientación. El arquetipo de robot malvado es posiblemente el mencionado Hal, que con el tiempo evoluciona de la competencia consumada en el manejo de la misión a un proceder asesino, liquidando a casi toda la tripulación.
El comportamiento de Hal es alarmante, especialmente si se considera que una de los instintos claves de cualquier forma de inteligencia, también artificial, sería el de supervivencia, y en caso de conflicto con otras formas de vida optarían por su propia subsistencia. Técnicamente, además, podrían tener más durabilidad que los frágiles seres humanos.
Cabe una tercera visión, que sostenga que la tecnología es moralmente inocua. Los robots, de entrada, no son ni ángeles ni demonios. Como explica Daniela Rus, Director del MIT Computer Science and Artificial Intelligence Lab, “es importante que las personas comprendan que la AI no es más que una herramienta. Como cualquier otra herramienta, no es ni intrínsecamente buena ni mala. Es únicamente lo que elegimos hacer con él. Creo que podemos hacer cosas extraordinariamente positivas con la AI, pero no es un hecho que eso suceda.”
En todo caso, la clave para poder hablar de autómatas buenos o malos es que disfruten de genuina libertad. Sin libertad no hay responsabilidad moral ni se puede hablar propiamente de intencionalidad. Con la evolución del “machine learning” cabría esperar que los ingenios de AI tuvieran la autonomía para pensar y decidir por sí mismos, y por lo tanto de ser responsables.
Del análisis sobre las visiones alternativas acerca de la naturaleza humana, proporcionadas por Rousseau y Hobbes, cabe plantearse desde la perspectiva personal, cuál de las orientaciones es la que se practica sistemáticamente.
Propongo un test, que tiene que ver con el legado que te gustaría dejar tras de ti en tu trabajo. Cuando piensas en planes de sucesión para tu propio puesto, o en tu empresa, ¿intentas seleccionar mejores personas que tú?
*Santiago Íñiguez es presidente de IE University, España. Es licenciado en Derecho, Doctor en Filosofía Moral, Jurídica y del Estado y alumno reconocido de Oxford. Es autor de varios libros como ‘The Learning Curve: How Business Schools Are Reinventing Education’ (2011), ‘Los Nuevos Líderes Globales’, LID 2019-, y ‘In An Ideal Business: How the Ideas of 10 Female Philosophers bring Values to the Workplace’ (publicación prevista en 2020).
Este texto es una columna de opinión. Su contenido es responsabilidad del autor y no representa necesariamente la postura de EL CEO.
Comparte
IE Business School
Comparte
Novak Djokovic: ¿a cuánto asciende la fortuna del famoso tenista?
¿Carlos Slim tiene un salario? Ésta es la cantidad mensual que percibe el millonario
Germán Larrea: éste es el perfil del dueño de Ferrosur