Advierten sobre peligros de herramienta de clonación de voz de inteligencia artificial, considerándola “demasiado arriesgada”

Los avances en inteligencia artificial han llevado al desarrollo de una nueva forma de deepfake, conocida como clonación de voz, que simula la forma de hablar de cualquier individuo. Sin embargo, esta innovación ha generado preocupación entre los desarrolladores debido a su potencial riesgo.

OpenAI, la empresa detrás de ChatGPT, ha creado una herramienta de clonación de voz que puede replicar la voz de una persona con solo 15 segundos de grabación de su discurso. Aunque esta tecnología podría tener aplicaciones prometedoras, como la síntesis de voz para personas con discapacidades del habla, también plantea serios riesgos para la seguridad.

La compañía ha decidido no lanzar esta herramienta al público, citando preocupaciones sobre su potencial abuso. El uso indebido de la clonación de voz podría facilitar fraudes y robos, afectando tanto a individuos como a grandes empresas.

Aunque OpenAI ha implementado medidas para mitigar estos riesgos, como la revelación de que las voces son generadas por IA y el consentimiento necesario para usarlas, aún existe la necesidad de desarrollar salvaguardias adicionales para evitar su mal uso.

El desarrollo de esta tecnología subraya la importancia de abordar los desafíos éticos y de seguridad asociados con el avance de la inteligencia artificial, mientras se aprovechan sus beneficios potenciales para la sociedad.

Compartir ésta nota:
Facebook
Twitter
LinkedIn
WhatsApp