Cómo AI VoiceBots amenaza la psicología de los miembros y espías del servicio estadounidense

Cómo AI VoiceBots amenaza la psicología de los miembros y espías del servicio estadounidense



Cómo AI VoiceBots amenaza la psicología de los miembros y espías del servicio estadounidense

Funcionarios del Pentágono le dijeron a Defense News que los agentes de voz de IA con varias funciones ahora pueden dirigir el interrogatorio global. Este avance ha afectado el diseño y las pruebas de agentes de IA militares de EE. UU. Se utiliza para cuestionar a las personas que buscan obtener materiales confidenciales.

Esta es una situación que ha llegado con preocupaciones sobre las regulaciones laxas, lo que permite a los programadores de IA evadir la responsabilidad de los actores de algoritmo por abuso emocional o ciberacortación de “sin signos”. Vale la pena señalar que un adolescente supuestamente fue asesinado por el suicidio, y varios otros sufrieron angustia mental: el lenguaje antagónico puede asignarse después de hablar con la voz autodidacta y los chatbots.

Ahora, siete años después de escribir sobre el surgimiento del interrogatorio de la IA en los amanecer de los robots autónomos, y la necesidad de acuerdos adicionales para la Convención de la ONU contra la tortura, la abogada de privacidad Amanda McAllister Novak cree que la necesidad de prohibir prohibiciones y molestias criminales es mayor.

Nowak dijo que después de usar “Chatbots, VoiceBots y otras tecnologías que apoyan el propósito del abuso psicológico), debemos considerar si vale la pena tener AI-AI en un contexto militar. Novak dijo en su nombre de las noticias de defensa.

Royal Reff, portavoz de la Agencia de Contrainteligencia y Seguridad de la Defensa de EE. UU. (DCSA), dijo en un comunicado que el agente de voz de IA de la agencia ha sido “definitivamente desarrollado” para “Mitigat”[e] El sesgo de género y cultural que los entrevistadores humanos pueden poseer.

Además, “porque los sistemas como el software de visitantes” se están utilizando actualmente a nivel mundial, incluida la aplicación de la ley estatal y local, creemos que es importante para nosotros comprender la funcionalidad de dichos sistemas “.

El portavoz de DCSA, Cindy McGovern, agregó que el desarrollo de la tecnología continúa porque “tiene el potencial de mejorar la seguridad nacional de los Estados Unidos, independientemente de otras aplicaciones extranjeras”.

Después de escuchar la justificación del proyecto, Novak expresó su preocupación por el dominio de las capacidades de IA militar global.

Ella dijo: “Independientemente de cuánto le importe al gobierno la capacitación, la supervisión y las barandillas”, las organizaciones cibercriminales o los cibercriminales patrocinados por el extranjero pueden invadir y armar las armas para oficiales o civiles que se ven psicológicamente perjudicados.

“El espacio del crimen en línea está prosperando” y “daño a los más vulnerables”.

Los inversores apuestan por $ 500 mil millones, y la ejecución de aplicaciones de IA en el centro de datos finalmente garantizará ahorros de costos para los sectores de IA y Público y Privado en todo el mundo. Para 2030, el mercado de IA conversacional de solo $ 13 mil millones casi se cuadruplicará a $ 50 mil millones, ya que la industria de la generación de voz se eleva de $ 3 mil millones a un estimado de $ 40 para 2032.

Los funcionarios de DCSA escribieron públicamente en 2022 que si las entrevistas de seguridad pueden ser completamente automatizadas sigue siendo una pregunta abierta. Las autoridades señalaron que la simulación cuestionó los resultados iniciales de la reunión “alentando” el énfasis en beneficios como “formatos de entrevista más largos y más naturales”.

Reff dijo que la agencia “no adoptará ningún sistema que primero estudie para comprender su potencial, incluidas” consecuencias negativas “.

Agregó que los investigadores tenían voluntarios planteando inquietudes después de cada prueba, y nadie demostró que el entrevistador de Robot de Voz los lastimó psicológicamente o de otra manera.

Pero los experimentos recientes sobre los últimos prototipos prohíben que los voluntarios con trastornos mentales asistan, y las entrevistas de seguridad reales generalmente no alivian a las personas de las condiciones de salud mental, dijo Renée Cummings, profesora de ciencia de datos y psicólogo del crimen en la Universidad de Virginia.

Cummings dijo que la investigación y las pruebas nunca pueden explicar todas las variables psicológicas que podrían afectar el estado emocional o cognitivo de los encuestados.

En un escenario de laboratorio o prueba de campo, “No se puede torturar a alguien a través de Avatar o Robot para ver los resultados”, Cummings también es una junta asesora para la iniciativa de IA e igualdad del Comité de Ética de Asuntos Internacionales de Carnegie. “Necesitamos centrarnos en una comprensión más compleja del impacto del algoritmo en los estados psicológicos, las emociones y el cerebro porque la IA tiene la capacidad de impactar en tiempo real”.

Filtro de filtro de Robot de voz

La transcripción de la CIA a principios de la década de 1980 fue un diálogo entre los programas de IA y los llamados espías, destacando el interés a largo plazo de la comunidad de seguridad nacional en automatizar la inteligencia de recursos humanos o las colecciones de Humint.

El desarrollador diseñó el algoritmo para los chatbots para analizar el comportamiento del sospechoso fantasma “Joe Hudsty” y la relevancia en las respuestas a las preguntas abiertas.

A través de este análisis, el chatbot arregla algunas vulnerabilidades sospechosas en temas que pueden encontrar el nervio original:

AI: ¿Cuál tiende a pensar que es mi interés en el gobierno?

Hardesty: Si tienes una oportunidad, creo que lo harás en mi administración.

AI: ¿Es fácil pensar que lo haré en tu gobierno?

Terco: eres antidemocrático.

En 1983, la CIA bromeó que Joe Hardesty tuvo la suerte de decir: “Si la detección fuera demasiado incómoda, tendría la opción de que no podría ofrecerle en una situación de entrevista en el extranjero real: podría usar el cambio de” apagado “para detener el problema”.

Hoy, Bradley Moss, el abogado que representa al denunciante acusado de filtraciones, no ha ridiculizado la visión de DCSA para una entrevista totalmente automatizada.

Advirtió: “Debe haber una persona para observar” la encarnación.

Luego, otros críticos señalan nuevamente que las personas pueden no querer intervenir. “Está bien que los supervisores humanos controlen la situación de los chatbots a menos que los humanos también piensen que la tortura verbal es algo bueno”. Esta es una posibilidad real. “Herb Lin, erudita de investigación senior en políticas y seguridad cibernéticas en la Universidad de Stanford, dijo que ha celebrado varias aprobaciones de seguridad.

A pesar de la prohibición mundial de la tortura y la evidencia de que las entrevistas de construcción de Rapport son más efectivas que competir por las confesiones, los funcionarios de inteligencia continúan adoptando el tratamiento inhumano entre los encuestados.

Novak, un abogado de privacidad de datos y activista anti-nuevo hijo, dijo que la idea de completar el trabajo en exceso de fuerza puede alentar a algunos contratistas gubernamentales a establecer métricas de desempeño para algoritmos de voz que permitan el acoso escolar.

Ella agregó: “Si bien la IA tiene tremendas capacidades para lograr lo mejor del potencial humano, también tiene la capacidad de agravar el potencial humano y aumentar la hostilidad”.

Los padres argumentaron que VoiceBot y Chatbot Companions estaban entrenados en contenido en foros en línea y lo demostraron.

El personaje de IA es una compañía que proporciona relaciones virtuales con íconos e influyentes, desde usuarios hasta ganancias en sus teléfonos. Cada usuario habla con varios amigos virtuales en promedio durante dos horas al día. Los funcionarios de IA dijeron que la compañía redujo la probabilidad de que los usuarios experimenten contenido sugerente después de aprender sobre las preocupaciones, y ahora les advierte una conversación de una hora.

Novak comentó que las acusaciones contra el personaje AI ilustran la capacidad de los robots de voz de autoaprendizaje para amplificar el comportamiento indecente en los datos de capacitación y un sentido de responsabilidad por esta ofensiva.

En el campo de la seguridad nacional, los desarrolladores de sistemas de voz de IA militar que pueden ser abusados ​​o intimidados operan en tierras no tripuladas con pocas leyes. Las políticas éticas de IA en los países más poderosos del mundo tienen poca orientación para reducir el diálogo de abuso.

Las primeras políticas de IA responsables y éticas de EE. UU. En el campo de la seguridad nacional se centraron en la precisión, la privacidad y la minimización del sesgo racial y racial sin considerar el impacto psicológico. La brecha de política se amplió después de que el presidente Donald Trump revocó muchas regulaciones con órdenes ejecutivas destinadas a acelerar la innovación del sector privado.

En términos generales, el dolor psicológico a menudo es “porno” solo una acusación porque “no tiene cicatrices físicas obvias”.

Inicialmente, las Naciones Unidas no abordaron la “tortura psicológica” bajo la Convención de 1984 sobre Anti-Tortura. El término no tenía importancia hasta hace cinco años.

El informe de la ONU para 2020 ahora define la “tortura”, en parte debido a cualquier tecnología diseñada o destinada a causar intencionalmente dolor mental o dolor mental, “sin la necesidad de usar dolor o dolor físico severo”.

En la parte inferior, el objetivo de la tortura psicológica es una necesidad humana básica. Las técnicas de interrogatorio causan miedo; desgracia o ideación suicida contra el Kindle contra la privacidad o la integridad sexual; cambiar la voz, aumentar la desorientación y la fatiga; levantar, luego traicionar la simpatía del aislamiento; e inculcar impotencia.

Ninguno de los tratados de la ONU y otras leyes internacionales tienen la capacidad de responsabilizar a los humanos cuando las cintas de algoritmos son canales crueles. Sin reglas vinculantes con respecto al uso de IA en un entorno militar, explicó que “los malos actores negarían que tal tortura fue” intencional “, una necesidad de responsabilidad penal causada por la ley antes de que AI madurara”, explicó.

Mirando hacia el futuro, Nils Melzer, autor del Informe de las Naciones Unidas de 2020 y el Informe Especial sobre Tortura en las Naciones Unidas dijo que las interpretaciones de la tortura psicológica deben desarrollarse en paralelo con tecnologías emergentes como la “inteligencia artificial” porque el entorno cibernético proporciona “de hecho garantía el anonimato y el anonimato casi completo”.



Source link

More From Author

Las ganancias de National Australia Bank excede las estimaciones, los márgenes de beneficio

Las ganancias de National Australia Bank excede las estimaciones, los márgenes de beneficio

Los voluntarios luchan contra el abuso animal en el “corredor brutal” de Houston

Los voluntarios luchan contra el abuso animal en el “corredor brutal” de Houston

Leave a Reply

Your email address will not be published. Required fields are marked *

दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद मैच स्कोरकार्ड कैपिटल्स बनाम सनराइजर्स सनराइजर्स हैदराबाद बनाम दिल्ली कैपिटल्स मैच स्कोरकार्ड टी. नटराजन दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद टाइमलाइन डीसी बनाम एसआरएच लाइव स्कोर डीसी एसआरएच डीसी बनाम एसआरएच 2025 ईशान मलिंगा सनराइजर्स हैदराबाद बनाम दिल्ली कैपिटल्स दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद ट्रिस्टन स्टब्स दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद स्टैंडिंग डीसी बनाम एसआरएच एसआरएच बनाम डीसी पैट कमिंस
दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद मैच स्कोरकार्ड कैपिटल्स बनाम सनराइजर्स सनराइजर्स हैदराबाद बनाम दिल्ली कैपिटल्स मैच स्कोरकार्ड टी. नटराजन दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद टाइमलाइन डीसी बनाम एसआरएच लाइव स्कोर डीसी एसआरएच डीसी बनाम एसआरएच 2025 ईशान मलिंगा सनराइजर्स हैदराबाद बनाम दिल्ली कैपिटल्स दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद ट्रिस्टन स्टब्स दिल्ली कैपिटल्स बनाम सनराइजर्स हैदराबाद स्टैंडिंग डीसी बनाम एसआरएच एसआरएच बनाम डीसी पैट कमिंस

Recent Comments

No comments to show.

Archives

Categories