{"id":66153,"date":"2024-12-30T12:59:09","date_gmt":"2024-12-30T17:59:09","guid":{"rendered":"https:\/\/einsteresante.com\/?p=66153"},"modified":"2024-12-30T12:59:10","modified_gmt":"2024-12-30T17:59:10","slug":"padrino-de-la-ia-dice-que-hay-una-probabilidad-de-apocalipsis-de-ia-del-10-20-en-30-anos","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2024\/12\/30\/padrino-de-la-ia-dice-que-hay-una-probabilidad-de-apocalipsis-de-ia-del-10-20-en-30-anos\/","title":{"rendered":"Padrino de la IA dice que hay una probabilidad de apocalipsis de IA del 10-20% en 30 a\u00f1os"},"content":{"rendered":"\n<p>Ser\u00eda dif\u00edcil encontrar a alguien m\u00e1s influyente en el campo de la IA que Geoffrey Hinton. Su trabajo sobre redes neuronales sent\u00f3 las bases de los sistemas de IA modernos, demostrando c\u00f3mo las computadoras pod\u00edan aprender y usar datos de nuevas maneras. Tambi\u00e9n le preocupa la IA. Hablando en BBC Radio 4, a Hinton le preguntaron c\u00f3mo eval\u00faa el potencial apocalipsis de la IA, y ofreci\u00f3 una respuesta escalofriante: &#8220;Del 10% al 20%&#8221;.<\/p>\n\n\n\n<p><strong>Somos los ni\u00f1os de tres a\u00f1os en esta relaci\u00f3n<br><\/strong>Hinton recibi\u00f3 el Premio Nobel y el Premio Turing (un premio similar al Nobel para la ciencia inform\u00e1tica) por su trabajo en IA. Forma parte de los tres &#8220;Padrinos de la IA&#8221;, dos de los cuales han expresado temores de que la IA pueda representar una amenaza existencial para la humanidad. El gran problema, dice Hinton, es que las IA est\u00e1n en camino de volverse m\u00e1s inteligentes que cualquiera de nosotros en algunos aspectos.<\/p>\n\n\n\n<p>&#8220;Ver\u00e1s, nunca antes hemos tenido que lidiar con cosas m\u00e1s inteligentes que nosotros. \u00bfY cu\u00e1ntos ejemplos conoces de un ser m\u00e1s inteligente controlado por otro menos inteligente? Hay muy pocos ejemplos. Hay una madre y un beb\u00e9. La evoluci\u00f3n ha puesto mucho empe\u00f1o en permitir que el beb\u00e9 controle a la madre, pero ese es el \u00fanico ejemplo que conozco\u201d.<\/p>\n\n\n\n<p>\u201cMe gusta pensar en ello como: imag\u00ednate a ti mismo y a un ni\u00f1o de tres a\u00f1os. Nosotros seremos los ni\u00f1os de tres a\u00f1os\u201d, dijo.<\/p>\n\n\n\n<p>No es la primera vez que Hinton expresa tales temores. Anteriormente evalu\u00f3 el riesgo de un apocalipsis de la IA en los pr\u00f3ximos 30 a\u00f1os en un 10%, y parece que ahora ha aumentado. La raz\u00f3n es que la IA est\u00e1 progresando mucho m\u00e1s r\u00e1pido de lo que pensaba y no tenemos ni de lejos suficiente regulaci\u00f3n pol\u00edtica.<\/p>\n\n\n\n<p>Es cierto que las IA no son m\u00e1s inteligentes que nosotros ahora, pero hay una buena posibilidad de que lo sean en un par de d\u00e9cadas. Mientras tanto, las empresas est\u00e1n tomando las riendas y no garantizando suficientes barandillas para un uso seguro de la IA, dice Hinton.<\/p>\n\n\n\n<p>\u201cMi preocupaci\u00f3n es que la mano invisible no nos va a mantener seguros. As\u00ed que dejarlo en manos del af\u00e1n de lucro de las grandes empresas no va a ser suficiente para garantizar que lo desarrollen de forma segura\u201d, dijo. \u201cLo \u00fanico que puede obligar a esas grandes empresas a investigar m\u00e1s sobre seguridad es la regulaci\u00f3n gubernamental\u201d.<\/p>\n\n\n\n<p><strong>Incluso sin un apocalipsis, nuestras vidas est\u00e1n a punto de cambiar dr\u00e1sticamente<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/einsteresante.com\/wp-content\/uploads\/2024\/12\/image-97.png\" alt=\"\" class=\"wp-image-66160\"\/><figcaption class=\"wp-element-caption\">Geoffrey Hinton es considerado uno de los pioneros de la IA. Cr\u00e9ditos de la imagen: Wiki Commons.<\/figcaption><\/figure>\n\n\n\n<p>Incluso los escenarios m\u00e1s optimistas de Hinton no son exactamente alentadores. El problema principal se reduce, una vez m\u00e1s, a la inteligencia. La IA simplemente est\u00e1 reemplazando a la inteligencia humana y haciendo que los humanos \u201cya no est\u00e9n a la vanguardia\u201d.<\/p>\n\n\n\n<p>Lo que estamos a punto de ver es un cambio en el orden de la Revoluci\u00f3n Industrial. Sin embargo, al igual que la Revoluci\u00f3n Industrial, la IA no va a mejorar la situaci\u00f3n de todos.<\/p>\n\n\n\n<p>\u201cMi preocupaci\u00f3n es que, aunque provocar\u00e1 enormes aumentos en la productividad, lo que deber\u00eda ser bueno para la sociedad, puede terminar siendo muy malo para la sociedad si todo el beneficio va a parar a los ricos y mucha gente pierde su trabajo y se vuelve m\u00e1s pobre\u201d, a\u00f1adi\u00f3.<\/p>\n\n\n\n<p>Este tipo de desigualdad es tambi\u00e9n lo que abre paso al extremismo y al fascismo, advirti\u00f3 Hinton. Dijo que tiene algunos remordimientos sobre la tecnolog\u00eda. Volver\u00eda a hacer lo mismo, pero le preocupa mucho c\u00f3mo resultar\u00e1 la IA.<\/p>\n\n\n\n<p>\u201cHay dos tipos de arrepentimiento. Est\u00e1 el tipo en el que te sientes culpable porque haces algo que sabes que no deber\u00edas haber hecho, y luego est\u00e1 el arrepentimiento en el que haces algo que volver\u00edas a hacer en las mismas circunstancias, pero al final puede que no salga bien.<\/p>\n\n\n\n<p>\u201cEse segundo arrepentimiento lo tengo. En las mismas circunstancias, volver\u00eda a hacer lo mismo, pero me preocupa que la consecuencia general de esto sea que sistemas m\u00e1s inteligentes que nosotros finalmente tomen el control.<\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/www.zmescience.com\/science\/news-science\/ai-risks-hinton-warnings\/\">ZME Science<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ser\u00eda dif\u00edcil encontrar a alguien m\u00e1s influyente en el campo de la IA que Geoffrey Hinton. Su trabajo sobre redes neuronales sent\u00f3 las bases de los sistemas de IA modernos, demostrando c\u00f3mo las computadoras pod\u00edan aprender y usar datos de nuevas maneras. Tambi\u00e9n le preocupa la IA. Hablando en BBC Radio 4, a Hinton le [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":["post-66153","post","type-post","status-publish","format-standard","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/66153","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=66153"}],"version-history":[{"count":10,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/66153\/revisions"}],"predecessor-version":[{"id":66165,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/66153\/revisions\/66165"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=66153"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=66153"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=66153"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}