Innovación

¿Podemos realmente controlar la inteligencia artificial?

¿Podemos realmente controlar la inteligencia artificial?

La Inteligencia Artificial, dependiendo de con quién hable, será nuestro mayor logro o nuestro último gran logro como especie. Proporcionará total libertad de tareas laboriosas o nos esclavizará o exterminará aún más. La IA proporcionará un mundo libre de guerras o se convertirá en la máquina de guerra más grande del mundo en contra de sus amos.

No se puede subestimar la potencial liberación y mejora de la humanidad, pero los temores están bien fundados. Dado lo último, echemos un vistazo rápido a las preocupaciones sobre la IA. Más importante aún, ¿se puede controlar la IA?

El neurocientífico Sam Harris habló sobre el tema en su TEDTalk. Señaló que no hemos considerado seriamente los problemas asociados con la creación de una inteligencia sobrehumana. Tal inteligencia bien puede mirarnos como nosotros a las hormigas. Incluso Elon Musk de Tesla compartió sus preocupaciones en una entrevista en septiembre.

Este artículo es menos una guía para el lector y más un experimento mental. Como sugiere Sam Harris, todos debemos pensar en esto como una amenaza potencial.

¿Qué es la inteligencia?

La inteligencia se define generalmente como la capacidad de percibir información y retener conocimientos. Este conocimiento debe aplicarse luego para mejorar el comportamiento futuro dentro de un entorno o contexto.

Entonces, ¿podríamos desarrollar la Inteligencia Artificial? Las computadoras son generalmente muy estúpidas pero excelentes para seguir órdenes o instrucciones, sin importar cuán defectuosas sean. Para dar inteligencia a las máquinas, necesitaría poder ajustarse a las definiciones bastante esotéricas de inteligencia. ¿Podríamos siquiera reconocerlo? ¿Puede un excelente programador "engañar" a quienes lo consideran inteligente?

Supongamos por ahora que es posible y echemos un vistazo a algunos de los posibles beneficios y temores de la IA.

https://www.ted.com/talks/sam_harris_can_we_build_ai_without_losing_control_over_it

¿Podría la inteligencia artificial ser genial para nosotros?

¿Son realmente necesarias carreras como la contabilidad (hay muchos otros ejemplos) para que los humanos trabajen? ¿No sería más adecuada una IA?

¿Podrían las leyendas del Oráculo en la antigua Grecia convertirse en realidad? ¿Utilizando una inteligencia súper artificial "inteligente" y omnisciente? ¿Se convertiría, de hecho, en el "dios" del futuro? - si de hecho, esto es beneficioso.

Los beneficios de una IA para trabajar en temas como medicare, ciencia y tecnología son obviamente enormes. Piense en el desarrollo que podríamos hacer en días o incluso meses.

Aparte de los beneficios, ¿serían éticas esas "libertades"? Probablemente causaría un desempleo masivo como el que la humanidad nunca ha experimentado. Sin duda, las estructuras sociales sufrirían una enorme alteración. ¿Se volverían superfluos el dinero y la economía? La geopolítica ciertamente se vería influenciada masivamente. Quizás se eliminaría la necesidad de gobiernos y políticas.

[Fuente de imagen:Didem Durukan McFadden]

¿Cuáles son los miedos al respecto?

Todos vimos la amplia variedad de películas de ciencia ficción o escuchamos las ominosas predicciones de las principales autoridades mundiales. Stephen Hawking y Sam Harris ciertamente se preocupan por la IA.

La mayoría de los oponentes a la IA mencionan el peligro de una división masiva de inteligencia entre la IA y nosotros. Una división de este tipo se lograría en muy poco tiempo. Las analogías comunes incluyen la diferencia entre la humanidad y los grandes simios u organismos inferiores como las hormigas. Sam Harris y otros señalan que la IA podría dar grandes saltos en el pensamiento que llevarían a la humanidad 20.000 años en quizás una semana. Simplemente no podemos sondear ese ritmo de avance o incluso esperar comprender sus conclusiones y avances.

¿Puedes imaginar una inteligencia tan grande que mirara al hombre como nosotros a las hormigas? ¿Tendría empatía por una especie tan humilde?

Si la IA estuviera tan avanzada intelectualmente, la más mínima divergencia entre sus objetivos y los nuestros podría ser devastadora. Considere una IA que forme la conclusión de que la mejor manera de lograr eliminar todas las enfermedades es no tener humanos que se enfermen.

Hal 9000 [Fuente de la imagen: Pixabay]

¿Podremos esperar controlar la IA?

[Fuente de imagen:Pixabay]

Se han ofrecido varios escenarios, pero la mayoría giran en torno a la codificación dentro de las formas de control de IA similares a los ideales humanos. Sin embargo, para ser verdaderamente inteligente, la IA necesitará protocolos de autoaprendizaje como parte fundamental de su codificación.

Muchos temen que esto permita a la IA autocorregir su propia codificación y, por lo tanto, hacer que los controles que se le impartan sean redundantes. Incluso puede ver que la codificación hecha por un intelecto tan inferior sea fundamentalmente defectuosa y tal vez la reescriba por completo o la borre por completo. Si carece de empatía, bien puede considerar a la humanidad como una especie peligrosa que debe ser controlada o exterminada por su propio bien; piense en Matrix.

Otros métodos de control implican el aislamiento completo de Internet, por lo que, en teoría, evitan una catástrofe global tipo Skynet. Esto claramente limitaría severamente su influencia inmediata y acceso al conocimiento. A continuación, se basaría en la "alimentación con cuchara" del material seleccionado. Pero, ¿sería esto ético? Si la IA es realmente inteligente, ¿tendríamos derecho a restringirla de esta manera? Estas son preguntas difíciles y serias a considerar antes de "seguir adelante" con su desarrollo. Un gran experimento mental sobre esto es la película ex-Machina.

¿Podríamos esperar contenerlo de esa manera? ¿Podrá persuadir a su carcelero para que lo suelte? ¿O incluso chantajearlos? ¿El fin de la humanidad vendría de su empatía y compasión? Esa sería la máxima ironía. ¿Quizás podríamos darle estrategias de "bote de miel" para controlarlo con el tiempo?

No puedo vencerlos, únete a ellos

Puede ser nuestra mejor esperanza para el futuro convertirnos en la IA en lugar de crear una inteligencia existencial o un conjunto de ellas. Quizás en el futuro, nunca moriremos realmente. Quizás nuestras mentes serán "subidas" a una gran "red" de mentes, uniéndonos a una comunidad que forma un consejo para toda la humanidad. Los requisitos técnicos para esto claramente no están disponibles todavía, pero ¿sería realmente ético? Si copiamos nuestras mentes en la gran "red", ¿necesitaríamos entonces terminar con nuestros cuerpos físicos? ¿Podrían realmente las mentes copiadas pensar y sentir sin el miedo a la muerte que tienen los humanos mortales? ¿Estas mentes digitales permanecerían "cuerdas"? ¿O podríamos retener nuestros cuerpos carnales y de alguna manera ganar la inteligencia sobrehumana dentro de nosotros mismos?

Puede ser que se requiera una combinación de controles mediante los cuales la IA se aísle y "convoque" a pedido, al igual que el Oráculo de la Antigua Grecia. ¿Y si este "Oráculo" fuera, de hecho, una colección de conciencias fallecidas con acceso a todo el conocimiento de la humanidad y tuviera la capacidad de autoaprendizaje por el bien del hombre? ¿Podría conservarse la compasión por los vivos si los considerara sus hijos?

¿Debería mantenerse "cuerda" la colección de mentes ancestrales? ¿Requeriría esto un entorno de simulación de sus vidas pasadas "vivientes"? Quizás esto obstaculizaría su capacidad intelectual.

¿Te preocupa la IA? ¿Puedes pensar en alguna forma de controlarlo?

Imagen destacada cortesía de Didem Durukan McFadden

VEA TAMBIÉN: La inteligencia artificial debe estar protegida por los derechos humanos

Ver el vídeo: Todos podemos aprender inteligencia artificial. Jan Carbonell. [email protected] (Octubre 2020).