TN

Temas de hoy:

  • Javier Milei
  • Cristina Kirchner
  • Tensión en Medio Oriente
  • Franco Colapinto
  • Dólar hoy
  • Mundial de Clubes
  • Día del Padre
  • Tecno
  • EN VIVO
    tnTecnoNovedades

    Un avión de guerra controlado por inteligencia artificial sobrevoló California

    Un F-16 voló sin control humano directo. “No usar estas tecnologías es un riesgo para la seguridad”, comentó el piloto que estuvo en la cabina de la aeronave.

    07 de mayo 2024, 16:32hs
    El vuelo superó los 800 kilómetros por hora. (Foto: AP/Damian Dovarganes)
    El vuelo superó los 800 kilómetros por hora. (Foto: AP/Damian Dovarganes)

    La Fuerza Aérea de Estados Unidos consiguió hace algunas jornadas un hito relevante en el ámbito de la aviación militar, tras el vuelo exitoso de una aeronave de guerra mediante un sistema de inteligencia artificial. En la prueba, un F-16 atravesó por el aire el desierto de California, alcanzando velocidades superiores a los 850 kilómetros por hora.

    Leé también: Warren Buffet dijo que su gemelo digital creado con inteligencia artificial es tan creíble como aterrador

    Respecto a estas tecnologías automatizadas, el secretario de aquel organismo estadounidense, Frank Kendal, opinó que es un riesgo de seguridad no tenerlas. “En este punto, es necesario que dispongamos de ellcomentó el hombre que, además, fue quien estuvo dentro de la cabina del avión de combate controlado por una IA.

    La inteligencia artificial controla un avión de guerra en Estados Unidos: los detalles de la prueba

    En abril, en una conferencia sobre el futuro de la guerra y el despliegue de drones de ataque que operan en forma autónoma, Kendall había anunciado el plan para volar un F-16 con una IA. El ensayo se realizó el viernes 3 de mayo con la presencia de escasos medios de comunicación, NBC y Associated Press, que recibieron el permiso para observar el vuelo “secreto” con la condición de no revelar los detalles hasta que se complete la prueba.

    Los aviones de combate se suben a la era de la IA. (Foto: Adobe Stock)
    Los aviones de combate se suben a la era de la IA. (Foto: Adobe Stock)

    El F-16, en cuya cabina se encontraba Kendall listo para tomar el mando, en caso de ser necesario, es conocido como “Vista”. En las cercanías voló otra nave, en ese caso controlada por humanos. La experiencia se realizó en la Base Edwards de la Fuerza Aérea estadounidense, una instalación en medio del desierto californiano en la que la leyenda de la aviación, Chuck Yaeger, fue el primer humano en romper la barrera del sonido, en 1947.

    Siguiendo el repaso de New York Times, al finalizar la prueba Kendall salió de la cabina del F-16 con una sonrisa en el rostro, tras un vuelo que se extendió durante media hora. Al descender, dijo a AP que vio lo suficiente para confiar en que las tecnologías de IA podrán decidir si disparar un arma durante una guerra. El secretario de la Fuerza Aérea dijo al respecto que siempre será necesaria la supervisión humana.

    Leé también: A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

    De acuerdo a la fuente, la Fuerza Aérea de EE.UU. planea tener una flota de más de 1000 drones operados con inteligencia artificial; se prevé que el primero de ellos esté en funcionamiento hacia el 2028.

    ¿Quién será responsable de los crímenes de una máquina?

    Frente al avance de la automatización en el uso de la fuerza, se alzan voces críticas que se oponen al empleo de IA en la toma de decisiones, en este caso en el marco de conflictos bélicos. Surgen conflictos como los siguientes: ¿qué ocurrirá si una máquina totalmente autónoma comete un crimen? ¿Quién será el responsable de dichos actos?

    La campaña Stop Killer Robots procura frenar el avance de la automatización en el uso de la fuerza. (Foto: Archivo)
    La campaña Stop Killer Robots procura frenar el avance de la automatización en el uso de la fuerza. (Foto: Archivo)

    “Existen preocupaciones graves y generalizadas sobre ceder decisiones de vida o muerte a sensores y softwares”, advirtió al respecto la Cruz Roja y agregó que las armas autónomas “son una causa inmediata de preocupación que exige una respuesta política internacional urgente”. En esa misma línea, Mary Wareham de la ONG Human Rights Watch (HRW) comentó que “eliminar el control humano en el uso de la fuerza es una grave amenaza que merece una acción multilateral urgente”, y que “las armas totalmente autónomas cometerían errores trágicos con consecuencias imprevistas”.

    Leé también: Desarrollaron una IA tóxica para pensar las peores preguntas que puedas imaginarte

    En declaraciones a TN Tecno, integrantes de la campaña Stop Killer Robots que impulsa HRW, señalaron que es imperioso establecer una obligación general de mantener el control humano significativo sobre el uso de la fuerza. En tal contexto, exigen una prohibición expresa para el “desarrollo, producción y uso que seleccione y ataque objetivos con base en procesamiento de sensores o que sean tan complejos que puedan desarrollar comportamientos no predecibles, o aquellos sistemas que seleccionen el objetivo a atacar, por ejemplo humanos o grupos, según indicadores discriminatorios”.

    Las más leídas de Tecno

    1

    Usan la imagen de Lionel Messi y Soledad Pastorutti para promocionar estafas digitales en redes sociales

    Por 

    Rodrigo Álvarez

    2

    Alerta roja: Google advierte a los s de Gmail que actualicen su cuenta

    3

    La inteligencia artificial en el Derecho: así impacta la IA en la Justicia y el sistema legal argentino

    Por 

    Rodrigo Álvarez

    4

    La IA es provechosa y también peligrosa: ¿cómo proteger a los chicos de los riesgos?

    Por 

    Uriel Bederman

    5

    Ni formatear ni reiniciar: el truco para hacer que tu computadora funcione más rápido en segundos

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialfuerza aereaEstados UnidosAviones

    Más sobre Tecno

    Los servicios financieros y el sector público son los más afectados (Imagen: Pixabay)

    Casi la mitad de las empresas argentinas pierde hasta 5 millones de dólares al año por fallos de software

    La inteligencia artificial en el Derecho: así impacta la IA en la Justicia y el sistema legal argentino. (Imagen: GeminiAI)

    La inteligencia artificial en el Derecho: así impacta la IA en la Justicia y el sistema legal argentino

    Por 

    Rodrigo Álvarez

    ¿Las amenazas en las herramientas de IA son mayores que en las redes sociales? (Foto: Creada con Microsoft Copilot)

    La IA es provechosa y también peligrosa: ¿cómo proteger a los chicos de los riesgos?

    Por 

    Uriel Bederman

    Los comentarios publicados en tn-ar.noticiadealagoas.com podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • Israel advirtió a los civiles iraníes que evacúen zonas cercanas a las bases militares
    • Colapinto hizo su mejor clasificación desde que volvió a la F1 y saldrá 10° en el GP de Canadá
    • Dos colectivos chocaron en Recoleta y 14 personas resultaron heridas
    • Dua Lipa hizo su cuarta tapa para el Vogue inglés: corpiño de satén y tocado con forma de estrella

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Mundial de Clubes
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit