Criptomonedas

AI ‘superará el nivel de habilidad experto en la mayoría de los dominios’ en 10 años: OpenAI

Prepárense: el entronización de una IA superinteligente está cerca.

UNO entrada en el blog en coautoría con el CEO de OpenAI, Sam Altman, el presidente de OpenAI, Greg Brockman, y el estudiado patrón de OpenAI, Ilya Sutskever, advierten que el expansión de la inteligencia sintético requiere una regulación amplia para evitar escenarios potencialmente catastróficos.

«Ahora es un buen momento para comenzar a pensar en la mandato de la superinteligencia», dijo Altman, y reconoció que los futuros sistemas de IA podrían aventajar significativamente a AGI en términos de capacidad. «Mirando la imagen como la vemos ahora, es concebible que interiormente de los próximos diez primaveras, los sistemas de IA superen los niveles de expertos en la mayoría de los campos y realicen tanta actividad productiva como una de las empresas más grandes de la contemporaneidad».

Un eco de las preocupaciones que planteó Altman en su declaración fresco antaño del congreso, el trío describió tres pilares que consideraban esenciales para la planificación estratégica futura.

«El punto de partida»

Primero, OpenAI cree que debe activo un seguridad entre el control y la innovación, y presionó por un acuerdo social «que nos permita ayudar la seguridad y ayudar a integrar estos sistemas con la sociedad».

Luego, defendieron la idea de una «autoridad internacional» encargada de realizar inspecciones del sistema, hacer cumplir las auditorías, probar el cumplimiento de los estándares de seguridad y las restricciones de implementación y seguridad. Trazando paralelismos con la Agencia Internacional de Energía Atómica, sugirieron cómo sería un organismo regulador mundial de IA.

Finalmente, enfatizaron la requisito de la «capacidad técnica» para ayudar el control sobre la superinteligencia y mantenerla «segura». Lo que esto implica sigue siendo confuso, incluso para OpenAI, pero la publicación advirtió contra medidas regulatorias onerosas como licencias y auditorías para tecnología que cae por debajo del borde de superinteligencia.

Esencialmente, la idea es ayudar a la superinteligencia alineada con las intenciones de sus entrenadores y evitar un «ambiente de foom»: una crisis rápida e incontrolable en las capacidades de IA que supera el control humano.

OpenAI además advierte sobre el impacto potencialmente catastrófico que el expansión descontrolado de modelos de IA podría tener en las sociedades futuras. Otros expertos en el campo ya han planteado preocupaciones similares. padrino de la IA a los fundadores de empresas de IA como estabilidad AI e incluso ex trabajadores de OpenAI previamente involucrado en la formación del GPT LLM. Este llamado urgente a un enfoque proactivo para la gobernanza y la regulación de la IA ha llamado la atención de los reguladores de todo el mundo.

El desafío de una superinteligencia «segura»

OpenAI cree que una vez que se aborden estos puntos, el potencial de la inteligencia sintético se puede utilizar más independientemente para siempre: «Esta tecnología puede mejorar nuestra sociedad, y la capacidad creativa de todos para usar estas nuevas herramientas seguramente nos sorprenderá», dijo.

Los autores además explicaron que el espacio actualmente está creciendo a un ritmo acelerado y esto no va a cambiar. “Detenerlo requeriría poco así como un régimen de vigilancia general, e incluso eso no garantiza que funcione”, dice el blog.

A pesar de estos desafíos, el liderazgo de OpenAI sigue comprometido a explorar la pregunta: «¿Cómo podemos avalar que se logre la capacidad técnica para ayudar segura una superinteligencia?» El mundo no tiene una respuesta en este momento, pero seguro que la necesita, una que ChatGPT no puede proporcionar.

Manténgase al día con las telediario criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.

También puede gustarte...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *