Criptotendencias - Noticias de bitcoin, criptomonedas y blockchain
domingo, mayo 11, 2025
  • Actualidad
  • Bitcoin
  • Análisis Criptofinanciero
  • Altcoins
  • Blockchain
  • Tecnología
  • Base de conocimiento
Sin resultado
Ver todos los resultados
Criptotendencias - Noticias de bitcoin, criptomonedas y blockchain
  • Actualidad
  • Bitcoin
  • Análisis Criptofinanciero
  • Altcoins
  • Blockchain
  • Tecnología
  • Base de conocimiento
Sin resultado
Ver todos los resultados
Criptotendencias - Noticias de bitcoin, criptomonedas y blockchain
Sin resultado
Ver todos los resultados
Inicio Tecnología

Google, Microsoft, OpenAI y otras compañías tecnológicas se comprometen al desarrollo seguro y responsable de la inteligencia artificial

A falta de regulación, pesos pesados tecnológicos y la IA se comprometieron con la Casa Blanca al desarrollo responsable de la tecnología

Dennys Gónzalez por Dennys Gónzalez
julio 24, 2023
en Tecnología
Tiempo de lectura: 6 mins lectura
0
Google, Microsoft, OpenAI y otras compañías tecnológicas se comprometen al desarrollo seguro y responsable de la inteligencia artificial

Google, Microsoft, OpenAI y otras compañías tecnológicas se comprometen al desarrollo seguro y responsable de la inteligencia artificial

75
Compartido
1.2k
Vistas
Compartir en TwitterCompartir en LinkedInCompartir en WhatsApp

Google, Microsoft, OpenAI, Meta, Anthropic, Infrection y Amazon quieren participar en el desarrollo seguro y responsable de la inteligencia artificial (IA), a través de una serie de compromisos voluntarios adquiridos ante la Casa Blanca y la administración del presidente estadounidense, Joe Biden, enfocados en la transparencia, seguridad y prevención de riesgos vinculados a la IA.

Te puede interesar: Llama 2, el modelo de inteligencia artificial de Meta y Microsoft, ahora está disponible en código abierto

Gigantes tecnológicos se unen para el desarrollo responsable de la inteligencia artificial

El rápido desarrollo y evolución de la inteligencia artificial está obligando a gobiernos y autoridades a responder igual de velozmente con las regulaciones para la IA, como parte de un esfuerzo por fomentar una adopción de bajo riesgo para una tecnología transformadora que apunta a cambiar el mundo de muchas maneras.

Entérate de todo del acontecer cripto! 🚀 Síguenos en X: @cripto_t

Te puede interesar: Microsoft presenta un plan de cinco puntos clave para la regulación de la inteligencia artificial

Sin embargo, el camino de la regulación aún parece distante, por lo que las compañías tecnológicas y desarrolladores de inteligencia artificial, Google, Microsoft, OpenAI, Meta, Anthropic, Inflection y Amazon, establecieron de forma voluntaria junto con la Casa Blanca una serie de compromisos que respetarán hasta la aparición de regulaciones que cubran las diferentes áreas mencionadas, como explicó un comunicado de OpenAI, creador del popular chatbot, ChatGPT y el modelo GPT-4.

¡Únete a nuestro grupo de Telegram en CriptoTendencias.com y mantente al tanto de las últimas noticias y tendencias en el mundo de las criptomonedas!

Te puede interesar: OpenAI presenta tres claves para gobernar y mitigar los riesgos de la superinteligencia artificial

Basadas en principios de seguridad, confianza y protección, las compañías tecnológicas aceptaron cumplir con 8 compromisos enfocados al desarrollo responsable de la inteligencia artificial, como una forma de garantizar la adopción segura y confiable de productos para el público.

Veamos cuáles fueron estos compromisos relacionados con la inteligencia artificial adquiridos por las compañías.

Pruebas y frenos de seguridad ante los riesgos de la inteligencia artificial

Las compañías se comprometieron a contar con un equipo de expertos en pruebas y evaluaciones de seguridad, conocido como «equipo rojo», el cual será esencial para desarrollar productos de IA para el público de forma exitosa y en un entorno seguro.

Además, las empresas también se comprometieron a avanzar en la investigación científica en esta área y a desarrollar un régimen de trabajo en equipo especializado y detallado, que incluya la participación de expertos independientes, para todos los principales lanzamientos públicos de nuevos modelos de IA.

Dicho régimen estará diseñado para abordar diferentes riesgos, como los biológicos, químicos, radiológicos, cibernéticos y sociales tras la implementación de modelos de inteligencia artificial.

Transparencia de la información

Las empresas reconocen que la colaboración y el intercambio de información son esenciales para avanzar en la confianza y seguridad de la IA.

Por lo tanto, otro compromiso adoptado es el de unirse a un mecanismo que les permita desarrollar, avanzar y adoptar estándares y mejores prácticas compartidas para la seguridad de la IA de vanguardia, en colaboración con gobiernos, sociedad civil y la investigación académica.

Este mecanismo facilitará el intercambio de información sobre avances y riesgos emergentes, así como el desarrollo de grupos de trabajo técnico sobre áreas prioritarias de preocupación en cuanto a seguridad y riesgos sociales.

Invertir en seguridad cibernética y medidas de seguridad internas

En general, las empresas se comprometen a proteger la propiedad intelectual relacionada con los pesos de los modelos de IA, que en el caso de los modelos no publicados suponen una «propiedad intelectual central para su negocio»,  y a tomar medidas para garantizar su seguridad y confidencialidad.

Para ello, se comprometen a limitar el acceso a las ponderaciones del modelo «solo a aquellos cuya función laboral lo requiera y establecer un programa sólido de detección de amenazas internas», consistente con las protecciones proporcionadas para su propiedad intelectual y secretos comerciales más valiosos.

Informar problemas y vulnerabilidades

Con la finalidad de encontrar cualquier tipo de error, problema o vulnerabilidad dentro de los modelos de inteligencia artificial, las empresas también acordaron establecer diferentes mecanismos y programas de recompensas que incentiven y premien el descubrimiento o divulgación de cualquier falla relacionada con los sistemas.

Te puede interesar: Supervisión de la inteligencia artificial: la necesidad de regulaciones y los riesgos e implicaciones de la IA para el trabajo y la sociedad fueron analizados en el Senado estadounidense

Identificar contenido generado por IA para los usuarios

Uno de los principales punto de acuerdo, fue la necesidad de identificar el contenido generado por inteligencia artificial para los usuarios.

Las empresas acordaron aplicar mecanismos técnicos, como sistemas de procedencia y/o marcas de agua, para informar públicamente cuál contenido fue creado con un modelo de inteligencia artificial, bien sea en texto, audio o visual.

Te puede interesar: Inteligencia artificial y los derechos de autor: OpenAI asegura contenido licenciado de Shutterstock y la agencia AP para entrenar sus modelos de IA

Compartir con los usuarios las capacidades y limitaciones de sus modelos

Las compañías acordaron divulgar públicamente las capacidades y limitaciones de los sistemas de inteligencia artificial, así como también a realizar informes públicos para los lanzamientos de nuevos modelos, donde se aborden puntos como pruebas de seguridad, riesgos y otros temas vinculados con el mismo.

Priorizar la investigación y la privacidad sobre los riesgos sociales que plantean los sistemas de IA

El desarrollo de inteligencia artificial deberá transcurrir priorizando la privacidad y evitar que los sistemas IA sean discriminatorios y sesgados, por lo que las empresas se comprometieron a destinar investigación y equipos al desarrollo de la inteligencia artificial de forma segura, responsable y buscando siempre mitigar sus potenciales riesgos.

Apoyar la investigación y el desarrollo de sistemas para enfrentar los mayores desafíos de la sociedad

Finalmente, las empresas acordaron apoyar la investigación y desarrollo de sistemas de inteligencia artificial que permitan combatir los diferentes problemas y desafíos que aborda el mundo, como el cambio climático, la detección y prevención de enfermedades como el cáncer o las amenazas cibernéticas, mientras que también impulsarán iniciativas educativas y formativas sobre los beneficios, riesgos y alcance de la tecnología.

La administración de Biden aseguró en un anuncio que esta iniciativa busca fomentar un compromiso más allá de Estados Unidos, para la creación de un marco internacional en el uso y desarrollo de la inteligencia artificial, por lo que consultó sobre compromisos parecidos con otros países como Chile, Corea del Sur, Alemania, Francia, Japón, México, entre otros, y liderará la discusión en diferentes focos internacionales.

Te puede interesar: Europa avanza en la regulación de la IA: el Parlamento Europeo aprobó la primera Ley de Inteligencia Artificial en el mundo

El presidente estadounidense, reconoció el enorme potencial de la inteligencia artificial, así como sus riesgos, en una conferencia luego de la reunión con los representantes de las compañías que lideran el desarrollo de la inteligencia artificial.

La inteligencia artificial ofrece una enorme promesa de riesgo para nuestra sociedad, economía y seguridad nacional, pero también oportunidades increíbles (…) Permítanme concluir con esto: veremos más cambios tecnológicos en los próximos 10 años, o incluso en los próximos años, que en los últimos 50 años. Esto ha sido una revelación asombrosa para mí, francamente. La inteligencia artificial transformará la vida de las personas en todo el mundo

Presidente de Estados Unidos, Joe Biden

Imagen cortesía: Tonstockerdesing en Vecteezy

¿Más temas de interés?

Nuevas directrices regulatorias: SEC y CFTC redefinen su jurisdicción en el ecosistema cripto

Binance integra Lightning Network de Bitcoin, Gensler decepcionado con el fallo judicial a favor de Ripple, nueva gobernanza de Polygon 2.0, IA y más de la Semana Cripto

Para minería en solitario: Minero SOLO SATOSHI de 1.2TH/s y busca esa recompensa por solo USD 199... hecho en Estados Unidos

¡Únete GRATIS a Binance ahora! 💥 Ahorra en comisiones para siempre y maximiza tus ganancias en criptomonedas. 🌟 ¡Regístrate hoy y lleva tus inversiones al siguiente nivel!.

Tags: Googleinteligencia artificialMicrosoftOpenAItecnologia
Entrada anterior

Nuevas directrices regulatorias: SEC y CFTC redefinen su jurisdicción en el ecosistema cripto

Próxima publicación

FedNow, el sistema de pagos de la Reserva Federal despierta preocupaciones sobre la posible implementación de un eventual Dólar Digital

Próxima publicación
FedNow, el sistema de pagos de la Reserva Federal despierta preocupaciones sobre la posible implementación de un eventual Dólar Digital

FedNow, el sistema de pagos de la Reserva Federal despierta preocupaciones sobre la posible implementación de un eventual Dólar Digital

Publicidad

Publicidad

Entradas recientes

  • Ethereum pos‑Merge: de la promesa verde al veredicto del mercado
  • CryptoQuant redefine su visión del mercado: los ciclos de Bitcoin entran en una nueva fase con la ola institucional
  • Ripple acuerda pagar $50 millones a la SEC y pone fin a una batalla legal histórica
  • Bitcoin rompe los $100,000: ¿vuelve a sincronizarse con el pulso de la liquidez global?
  • B3 se consolida como epicentro cripto en América Latina con futuros de Ethereum y Solana

Suscríbete a nuestro Podcast

Síguenos en X

Zebec Marca el Camino: Innovación en Pagos Instantáneos y el Futuro de las Finanzas Digitales 🔥https://t.co/20ABFDMIZs pic.twitter.com/W3kTUyvVKo

— Criptotendencias (@cripto_t) January 19, 2024

Publicidad

  • Contáctanos
  • Publicidad

© 2022 Criptotendencias.com - SEO & Web Consultor SEO.

Sin resultado
Ver todos los resultados
  • Home
  • Actualidad
  • Bitcoin
  • Blockchain
  • Base de conocimiento
  • Podcast
  • Publicidad
  • Opinión
  • Contáctanos
  • Autor invitado

© 2022 Criptotendencias.com - SEO & Web Consultor SEO.