Ciencia y Tecnología

Un grupo de expertos en IA asistieron a una fiesta en una mansión. El tema de conversación: qué habrá cuando la IA acabe con la humanidad

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6307c3&sol;gemini&lowbar;generated&lowbar;image&lowbar;yma4olyma4olyma4&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Un grupo de expertos en IA asistieron a una fiesta en una mansión&period; El tema de conversación&colon; qué habrá cuando la IA acabe con la humanidad ">&NewLine; <&sol;p>&NewLine;<p>En una mansión con vistas al Golden Gate&comma; la élite de la inteligencia artificial se reunió el pasado domingo para debatir una cuestión inquietante&colon; el fin de la humanidad y lo que vendrá después&period; Entre copas &lpar;sin alcohol&rpar; sus alrededor de 100 asistentes&comma; entre los que había filósofos&comma; empresarios e investigadores&comma; imaginaron un futuro en el que los humanos ya no existimos&comma; pero sí una inteligencia creada por nosotros&period; ¿Cómo debería ser nuestra sucesora&quest;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>La fiesta del fin del mundo&period; <&sol;strong> El evento que hemos conocido a través de <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;wired&period;com&sol;story&sol;ai-risk-party-san-francisco&sol;">este reportaje de Wired<&sol;a> fue llamado &OpenCurlyQuote;Worthy Successor’ y tenía como objetivo discutir precisamente sobre eso&colon; definir un &OpenCurlyDoubleQuote;sucesor a la altura” para cuando la humanidad ya no exista&period; Esta idea está relacionada con la creación de una <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;que-inteligencia-artificial-general-agi-tecnologia-que-apunta-a-revolucionar-nuestro-mundo-completo" data-vars-post-title&equals;"Qué es la Inteligencia Artificial General &lpar;AGI&rpar;&comma; la tecnología que apunta a revolucionar nuestro mundo por completo" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;que-inteligencia-artificial-general-agi-tecnologia-que-apunta-a-revolucionar-nuestro-mundo-completo"><u>inteligencia artificial general o AGI<&sol;u><&sol;a>&comma; por sus siglas en inglés&period; Un &lpar;de momento&rpar; concepto de superinteligencia que superaría al ser humano en todas las facetas del conocimiento&comma; tan buena que&comma; en palabras de Daniel Faggella&comma; anfitrión de la fiesta&colon; &OpenCurlyDoubleQuote;Preferirías con mucho gusto que ella &lpar;no la humanidad&rpar; determine el camino futuro de la vida misma”&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p><strong>Quienes asistieron&period; <&sol;strong>Lo primero&colon; ¿quién es este tipo y por qué deberíamos escucharlo&quest; Faggella es el fundador de Emerj Artificial Intelligence Research&comma; una firma de consultoría y análisis de IA&period;  <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;techcrunch&period;com&sol;2016&sol;03&sol;21&sol;exploring-the-risks-of-artificial-intelligence&sol;"><u>En 2016 escribía en TechCrunch<&sol;u><&sol;a> sobre los riesgos de la IA y actualmente está centrado en divulgar sobre IA desde un enfoque moral y filosófico&comma; concretamente el de la creación de este &OpenCurlyQuote;worthy succesor’  <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;danfaggella&period;com&sol;worthy&sol;"><u>una idea que llevaba rondando desde hace tiempo<&sol;u><&sol;a>&period; Según cuenta <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;linkedin&period;com&sol;posts&sol;danfaggella&lowbar;the-worthy-successor-agi-event-in-sf-on-activity-7336180093532229632-Oieh&quest;utm&lowbar;source&equals;share&amp&semi;utm&lowbar;medium&equals;member&lowbar;desktop&amp&semi;rcm&equals;ACoAABJhsmcB4So5ufEmX5-HONwkR2tU5PJgHKQ"><u>en LinkedIN<&sol;u><&sol;a>&comma; ha ido contactando con distintas personalidades relevantes de la industria para&comma; dos años después&comma; conseguir celebrar esta reunión&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>En la fiesta se pudieron escuchar tres ponencias de la mano de <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;ginevlily"><u>Ginevra Davis<&sol;u><&sol;a>&comma; escritora neoyorkina&comma; el filósofo <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;johnsonmxe&quest;lang&equals;es"><u>Michael Edward Johnson<&sol;u><&sol;a> y el propio anfitrión&period; La lista completa de invitados no ha trascendido&comma; pero <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;linkedin&period;com&sol;feed&sol;update&sol;urn&colon;li&colon;activity&colon;7336180093532229632&sol;"><u>Faggella presume<&sol;u><&sol;a> de que asistieron fundadores de empresas de IA con valores de hasta 5&period;000 millones de dólares&comma; gente de los laboratorios que están investigando para crear una AGI y algunos de los filósofos y pensadores más importantes del sector&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;hay-que-poner-unas-comillas-muy-grandes-razonamiento-ia-bienvenidos-a-inteligencia-irregular" class&equals;"pivot-outboundlink" data-vars-post-title&equals;'Todas las empresas IA están vendiendo que sus nuevos modelos "razonan"&period; Hay que ponerle unas comillas muy grandes'><br &sol;>&NewLine; <img alt&equals;'Todas las empresas IA están vendiendo que sus nuevos modelos "razonan"&period; Hay que ponerle unas comillas muy grandes' width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;4402c3&sol;rodin&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;hay-que-poner-unas-comillas-muy-grandes-razonamiento-ia-bienvenidos-a-inteligencia-irregular" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;'Todas las empresas IA están vendiendo que sus nuevos modelos "razonan"&period; Hay que ponerle unas comillas muy grandes'>En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;hay-que-poner-unas-comillas-muy-grandes-razonamiento-ia-bienvenidos-a-inteligencia-irregular" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;'Todas las empresas IA están vendiendo que sus nuevos modelos "razonan"&period; Hay que ponerle unas comillas muy grandes'>Todas las empresas IA están vendiendo que sus nuevos modelos &&num;8220&semi;razonan&&num;8221&semi;&period; Hay que ponerle unas comillas muy grandes<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>La superinteligencia que acabará con todo&period; <&sol;strong>En palabras de Faggella a Wired&colon; &OpenCurlyDoubleQuote;los grandes laboratorios saben que la AGI probablemente acabará con la humanidad&comma; pero no hablan de ello porque los incentivos no lo permiten”&period; Suena a teoría de la conspiración&comma; pero no es el primero que advierte de algo así&period; Hace una década&comma; Bill Gates nos decía que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;debemos-temer-a-la-inteligencia-artificial-segun-bill-gates-si-y-mucho" data-vars-post-title&equals;"¿Debemos temer a la Inteligencia Artificial&quest; según Bill Gates&comma; sí y mucho" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;debemos-temer-a-la-inteligencia-artificial-segun-bill-gates-si-y-mucho"><u>deberíamos temer a la IA<&sol;u><&sol;a>&period; Poco después  <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;urge-regular-la-inteligencia-artificial-antes-de-que-se-convierta-en-un-peligro-para-la-humanidad-elon-musk" data-vars-post-title&equals;'"Urge regular la inteligencia artificial antes de que se convierta en un peligro para la humanidad"&colon; Elon Musk' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;urge-regular-la-inteligencia-artificial-antes-de-que-se-convierta-en-un-peligro-para-la-humanidad-elon-musk"><u>Musk exigía una regulación<&sol;u><&sol;a> para mitigar los peligros de lo que estaba por venir&period; Más recientemente&comma; distintos expertos en IA firmaban <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;grandes-expertos-ia-comparten-mensaje-riesgo-extincion-les-bastan-22-palabras" data-vars-post-title&equals;'Los grandes expertos de la IA comparten un mensaje sobre el "riesgo de extinción"&colon; les bastan 22 palabras' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;grandes-expertos-ia-comparten-mensaje-riesgo-extincion-les-bastan-22-palabras"><u>un mensaje que alertaba del &OpenCurlyDoubleQuote;riesgo de extinción por IA”<&sol;u><&sol;a>&period; OpenAI también pensaba en <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;quiza-proyecto-importante-historia-humanidad-que-openai-piensa-riesgos-agi" data-vars-post-title&equals;'"Quizá el proyecto más importante de la historia de la humanidad"&colon; por qué OpenAI ya piensa en los riesgos de la AGI ' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;quiza-proyecto-importante-historia-humanidad-que-openai-piensa-riesgos-agi"><u>los riesgos de la AGI<&sol;u><&sol;a>&period; Incluso se habla de que sus declaraciones sobre la creación de una AGI habría sido <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;antes-despedir-a-altman-openai-hizo-descubrimiento-uno-que-plantea-amenaza-para-humanidad" data-vars-post-title&equals;'Antes de despedir a Altman&comma; OpenAI hizo un descubrimiento&period; Uno que plantea una "amenaza para la humanidad"' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;antes-despedir-a-altman-openai-hizo-descubrimiento-uno-que-plantea-amenaza-para-humanidad"><u>el motivo del sonado despido de Altman<&sol;u><&sol;a> meses después&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Qué hay de cierto en todo esto&period; <&sol;strong>No lo podemos saber a ciencia cierta&comma; pero sí sabemos que la mayoría de los argumentos sobre <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;todas-empresas-ia-prometen-que-agi-llegara-muy-pronto-problema-que-chatgpt-no-camino" data-vars-post-title&equals;"Todas las empresas de IA prometen que la AGI llegará muy pronto&period; El problema es que ChatGPT no es el camino" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;todas-empresas-ia-prometen-que-agi-llegara-muy-pronto-problema-que-chatgpt-no-camino"><u>la inminencia de la AGI<&sol;u><&sol;a> y sus riesgos se basan en opiniones y especulaciones&comma; no en pruebas empíricas o avances concretos&period; Por ejemplo&comma; investigaciones recientes han demostrado que los sistemas actuales <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;futurism&period;com&sol;frontier-ai-models-stumped-childrens-game"><u>aún fallan en tareas básicas de razonamiento<&sol;u><&sol;a>&comma; lo que contradice la idea de una superinteligencia a corto plazo&period; Es más&comma; hay indicios de que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;nuevos-grandes-modelos-ia-generativa-no-paran-retrasarse-peligroso-indicio-que-hemos-tocado-techo" data-vars-post-title&equals;"Los nuevos grandes modelos de IA generativa no paran de retrasarse&period; Es un peligroso indicio de que hemos tocado techo " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;nuevos-grandes-modelos-ia-generativa-no-paran-retrasarse-peligroso-indicio-que-hemos-tocado-techo"><u>la IA generativa podría estar cerca de su techo<&sol;u><&sol;a>&period; Tampoco hay consenso entre los expertos&period; Hay detractores que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;amenaza-ia-a-humanidad-absurdamente-ridicula-dice-maximo-responsable-ia-meta" data-vars-post-title&equals;'La amenaza de la IA a la humanidad es "absurdamente ridícula"&colon; lo dice el máximo responsable de IA en Meta ' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;amenaza-ia-a-humanidad-absurdamente-ridicula-dice-maximo-responsable-ia-meta"><u>lo consideran ridículo<&sol;u><&sol;a>&comma; pero claro&comma; es menos &OpenCurlyQuote;viralizable’ que decir que la IA va a extinguirnos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p>Y lo más importante&colon; no podemos dejar de lado el hecho de que quienes hacen estas declaraciones son personas del negocio <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;futurism&period;com&sol;the-byte&sol;sam-altman-openai-knows-how-agi"><u>como Altman<&sol;u><&sol;a>&comma; y el <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;openai-no-quiere-ser-solo-chatgpt-quiere-ser-proxima-google" data-vars-post-title&equals;'OpenAI necesita algo grande&comma; muy grande para seguir recaudando dinero en 2025&period; Tanto como ser "la nueva Google"' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;openai-no-quiere-ser-solo-chatgpt-quiere-ser-proxima-google"><u>negocio es muy caro<&sol;u><&sol;a> y necesita financiarse&period; Agitar el avispero insistiendo sobre la inminente llegada de la AGI podría ser una forma de lograr recaudar más dinero para sus empresas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Lo que dejaremos cuando desaparezcamos&period; <&sol;strong>El tema central de la fiesta no fue tanto cómo se extinguirá la humanidad &lpar;parece que esto lo dan por hecho&rpar;&comma; sino qué tipo de inteligencia deberíamos crear para que sea nuestra sucesora&period; Los asistentes escucharon ponencias que giraron en torno a los valores y capacidades que debería tener esta nueva inteligencia superior&period; Para Faggella&comma; la humanidad tiene la responsabilidad de diseñar un sucesor que sea consciente y capaz de evolucionar&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p>El filósofo Michael Edward Johnson destacó los restos de crear una IA consciente más allá de la manida posible extinción&colon; &OpenCurlyDoubleQuote;Nos arriesgamos a esclavizar algo que puede sufrir o a confiar en algo en lo que no se puede confiar”&comma; afirmó durante su ponencia&period; Más que forzar a la IA a obedecer&comma; proponía una educación conjunta de humanos e IAs para &OpenCurlyDoubleQuote;perseguir el bien”&comma; sea lo que sea eso&period; En definitiva&comma; un interesante <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;ethic&period;es&sol;2024&sol;01&sol;el-dialogo-entre-un-filosofo-y-un-experto-en-ia-la-ia-no-es-inteligencia-sino-eficiencia&sol;"><u>debate desde el punto de vista ético y filosófico<&sol;u><&sol;a>&comma; pero con poco anclaje en la realidad&period; Al menos de momento&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<p>Imagen de portada &vert; Gemini<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;shein-china-tiene-manos-nueva-arma-para-devorar-industria-moda-ia-que-predice-tendencias" data-vars-post-title&equals;"El arma secreta de la industria de la moda en China&colon; esta startup usa IA para predecir las próximas tendencias" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;shein-china-tiene-manos-nueva-arma-para-devorar-industria-moda-ia-que-predice-tendencias"><u>El arma secreta de la industria de la moda en China&colon; esta startup usa IA para predecir las próximas tendenci<&sol;u><&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;grupo-expertos-ia-asistieron-a-fiesta-mansion-tema-conversacion-que-habra-cuando-ia-acabe-humanidad&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;22&lowbar;Jun&lowbar;2025"><br &sol;>&NewLine; <em> Un grupo de expertos en IA asistieron a una fiesta en una mansión&period; El tema de conversación&colon; qué habrá cuando la IA acabe con la humanidad <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;22&lowbar;Jun&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;amparo-babiloni&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;22&lowbar;Jun&lowbar;2025"><br &sol;>&NewLine; Amparo Babiloni<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;En una mansión con vistas al Golden Gate&comma; la élite de la inteligencia artificial se reunió el pasado domingo para debatir una cuestión inquietante&colon; el fin de la humanidad y lo que vendrá después&period; Entre copas &lpar;sin alcohol&rpar; sus alrededor de 100 asistentes&comma; entre los que había filósofos&comma; empresarios e investigadores&comma; imaginaron un futuro en el que los humanos ya no existimos&comma; pero sí una inteligencia creada por nosotros&period; ¿Cómo debería ser nuestra sucesora&quest;<&sol;p>&NewLine;<p>La fiesta del fin del mundo&period;  El evento que hemos conocido a través de este reportaje de Wired fue llamado &OpenCurlyQuote;Worthy Successor’ y tenía como objetivo discutir precisamente sobre eso&colon; definir un &OpenCurlyDoubleQuote;sucesor a la altura” para cuando la humanidad ya no exista&period; Esta idea está relacionada con la creación de una inteligencia artificial general o AGI&comma; por sus siglas en inglés&period; Un &lpar;de momento&rpar; concepto de superinteligencia que superaría al ser humano en todas las facetas del conocimiento&comma; tan buena que&comma; en palabras de Daniel Faggella&comma; anfitrión de la fiesta&colon; &OpenCurlyDoubleQuote;Preferirías con mucho gusto que ella &lpar;no la humanidad&rpar; determine el camino futuro de la vida misma”&period;<&sol;p>&NewLine;<p>Quienes asistieron&period; Lo primero&colon; ¿quién es este tipo y por qué deberíamos escucharlo&quest; Faggella es el fundador de Emerj Artificial Intelligence Research&comma; una firma de consultoría y análisis de IA&period;  En 2016 escribía en TechCrunch sobre los riesgos de la IA y actualmente está centrado en divulgar sobre IA desde un enfoque moral y filosófico&comma; concretamente el de la creación de este &OpenCurlyQuote;worthy succesor’  una idea que llevaba rondando desde hace tiempo&period; Según cuenta en LinkedIN&comma; ha ido contactando con distintas personalidades relevantes de la industria para&comma; dos años después&comma; conseguir celebrar esta reunión&period;<&sol;p>&NewLine;<p>En la fiesta se pudieron escuchar tres ponencias de la mano de Ginevra Davis&comma; escritora neoyorkina&comma; el filósofo Michael Edward Johnson y el propio anfitrión&period; La lista completa de invitados no ha trascendido&comma; pero Faggella presume de que asistieron fundadores de empresas de IA con valores de hasta 5&period;000 millones de dólares&comma; gente de los laboratorios que están investigando para crear una AGI y algunos de los filósofos y pensadores más importantes del sector&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Todas las empresas IA están vendiendo que sus nuevos modelos &&num;8220&semi;razonan&&num;8221&semi;&period; Hay que ponerle unas comillas muy grandes<&sol;p>&NewLine;<p>La superinteligencia que acabará con todo&period; En palabras de Faggella a Wired&colon; &OpenCurlyDoubleQuote;los grandes laboratorios saben que la AGI probablemente acabará con la humanidad&comma; pero no hablan de ello porque los incentivos no lo permiten”&period; Suena a teoría de la conspiración&comma; pero no es el primero que advierte de algo así&period; Hace una década&comma; Bill Gates nos decía que deberíamos temer a la IA&period; Poco después  Musk exigía una regulación para mitigar los peligros de lo que estaba por venir&period; Más recientemente&comma; distintos expertos en IA firmaban un mensaje que alertaba del &OpenCurlyDoubleQuote;riesgo de extinción por IA”&period; OpenAI también pensaba en los riesgos de la AGI&period; Incluso se habla de que sus declaraciones sobre la creación de una AGI habría sido el motivo del sonado despido de Altman meses después&period;<&sol;p>&NewLine;<p>Qué hay de cierto en todo esto&period; No lo podemos saber a ciencia cierta&comma; pero sí sabemos que la mayoría de los argumentos sobre la inminencia de la AGI y sus riesgos se basan en opiniones y especulaciones&comma; no en pruebas empíricas o avances concretos&period; Por ejemplo&comma; investigaciones recientes han demostrado que los sistemas actuales aún fallan en tareas básicas de razonamiento&comma; lo que contradice la idea de una superinteligencia a corto plazo&period; Es más&comma; hay indicios de que la IA generativa podría estar cerca de su techo&period; Tampoco hay consenso entre los expertos&period; Hay detractores que lo consideran ridículo&comma; pero claro&comma; es menos &OpenCurlyQuote;viralizable’ que decir que la IA va a extinguirnos&period;<&sol;p>&NewLine;<p>Y lo más importante&colon; no podemos dejar de lado el hecho de que quienes hacen estas declaraciones son personas del negocio como Altman&comma; y el negocio es muy caro y necesita financiarse&period; Agitar el avispero insistiendo sobre la inminente llegada de la AGI podría ser una forma de lograr recaudar más dinero para sus empresas&period;<&sol;p>&NewLine;<p>Lo que dejaremos cuando desaparezcamos&period; El tema central de la fiesta no fue tanto cómo se extinguirá la humanidad &lpar;parece que esto lo dan por hecho&rpar;&comma; sino qué tipo de inteligencia deberíamos crear para que sea nuestra sucesora&period; Los asistentes escucharon ponencias que giraron en torno a los valores y capacidades que debería tener esta nueva inteligencia superior&period; Para Faggella&comma; la humanidad tiene la responsabilidad de diseñar un sucesor que sea consciente y capaz de evolucionar&period;<&sol;p>&NewLine;<p>El filósofo Michael Edward Johnson destacó los restos de crear una IA consciente más allá de la manida posible extinción&colon; &OpenCurlyDoubleQuote;Nos arriesgamos a esclavizar algo que puede sufrir o a confiar en algo en lo que no se puede confiar”&comma; afirmó durante su ponencia&period; Más que forzar a la IA a obedecer&comma; proponía una educación conjunta de humanos e IAs para &OpenCurlyDoubleQuote;perseguir el bien”&comma; sea lo que sea eso&period; En definitiva&comma; un interesante debate desde el punto de vista ético y filosófico&comma; pero con poco anclaje en la realidad&period; Al menos de momento&period;<&sol;p>&NewLine;<p>Imagen de portada &vert; Gemini<&sol;p>&NewLine;<p>En Xataka &vert; El arma secreta de la industria de la moda en China&colon; esta startup usa IA para predecir las próximas tendenci<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Un grupo de expertos en IA asistieron a una fiesta en una mansión&period; El tema de conversación&colon; qué habrá cuando la IA acabe con la humanidad <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Amparo Babiloni<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.