En el mundo del Hip-Hop, las batallas de rap son tan comunes como las colaboraciones, y la última contienda que ha capturado la atención de la industria ha sido una disputa largamente esperada. En la batalla entre los pesos pesados del rap, Kendrick Lamar y Drake, un nuevo contendiente ha surgido para unirse a la antigua tradición: la inteligencia artificial. Lo que comenzó como una tradición consagrada de enfrentamientos en las ondas radiales, rápidamente se ha transformado en una conversación más profunda sobre los usos éticos de la IA en la industria musical.
La disputa
La prolongada disputa entre los raperos se intensificó en abril y mayo con “diss tracks” o canciones que intencionadamente faltan al respeto a otro artista, lanzadas rápidamente una tras otra. Las redes sociales ayudaron a escalar la disputa y permitieron la liberación de canciones a velocidades increíbles, algunas incluso a minutos de diferencia entre sí. Sin embargo, a lo largo de la disputa, los oyentes lucharon por descifrar cuáles eran reales y cuáles deepfakes, una forma de medios sintéticos. Con muchas “diss tracks” publicadas en línea, y no a través de discográficas, puede ser difícil verificar si una pista es un lanzamiento auténtico de un artista. El 15 de abril, la pista de disenso “One Shot”, supuestamente de Kendrick, apareció en línea y exacerbó la tensión entre Kendrick y Drake. Posteriormente, se confirmó que la canción era un deepfake cuando el creador explicó cómo la había creado utilizando IA, aunque muchos oyentes e incluso Drake se preguntaron si era una pieza auténtica lanzada por Kendrick.
Preguntas importantes
La disputa ha planteado preguntas muy importantes respecto a la importancia del consentimiento, la autoría y la divulgación cuando se trata del uso de la IA en la industria musical. La inclusión de la voz generada por IA del legendario rapero fallecido Tupac en el “Taylor Made Freestyle” de Drake provocó controversia y motivó una respuesta por parte del patrimonio de Tupac en forma de una carta de cese y desistimiento en la que se afirma que no dieron su consentimiento para usar a Tupac y que la pista es una “violación flagrante de la publicidad de Tupac y los derechos legales del patrimonio”, además de ser irrespetuosa con el legado del artista fallecido. A medida que el contenido generado por IA, o contenido sintético, se vuelve más sofisticado y accesible, plantea desafíos significativos en muchas industrias y sectores. El Marco de Prácticas Responsables para Medios Sintéticos de CANIA comienza a abordar estas preocupaciones identificando tres grupos involucrados en el ciclo de vida de los medios sintéticos (constructores de herramientas de generación de IA, creadores de medios sintéticos y distribuidores/editores de medios sintéticos) y proporcionando a cada grupo directrices “hechas a medida” para el desarrollo, creación y distribución de medios generados por IA. El Marco tiene como objetivo asegurar que se sigan prácticas éticas, particularmente en torno al consentimiento y la divulgación transparente del uso de la IA en los medios.
Consentimiento
En el caso del uso por Drake de la voz generada por IA de Tupac, la falta de consentimiento fue un problema mayor. El Marco de Medios Sintéticos establece que los creadores de medios sintéticos deben ser transparentes en “cómo [ellos] reciben el consentimiento informado de los sujetos de un contenido manipulado, adecuado al producto y contexto, excepto cuando se use para fines artísticos, satíricos o expresivos razonables.” Esta disputa destaca la creciente preocupación respecto a la incapacidad de los artistas fallecidos para consentir el uso de su imagen y plantea preocupaciones éticas sobre su derecho a permanecer muertos.
Transparencia mediante Divulgación
El uso confirmado y alegado de la IA en las pistas de disenso también presenta el desafío de cómo divulgar que el audio ha sido generado o modificado por IA. El Marco de CANIA recomienda que al crear o distribuir medios sintéticos, siempre se deben divulgar los elementos sintéticos, especialmente si la falta de divulgación podría alterar la percepción del contenido. La divulgación es crucial para mantener la transparencia. Para algunas formas de medios sintéticos, existen métodos de divulgación directos, como la creación de una etiqueta de IA en un video de TikTok. También hay métodos de divulgación indirectos, como la procedencia criptográfica, como el estándar abierto C2PA, que puede ayudar notablemente a plataformas como TikTok a divulgar o etiquetar directamente el contenido generado por IA. Sin embargo, el audio presenta un desafío único y debemos considerar cómo debería etiquetarse la IA en el audio y cómo se puede hacer sin detrimento de la experiencia del usuario. La startup de clonación de voz Respeecher explora estas preguntas en su estudio de caso sobre la prevención del mal uso en el espacio de clonación de voz. Si bien Respeecher ha adoptado el estándar C2PA como una mejor práctica, la empresa destaca la complejidad de las divulgaciones de audio en un contexto artístico y la necesidad de continuar explorando este desafío. En el caso de la pista de disenso generada por IA “One Shot”, el creador debería haber explorado formas de divulgar que la pista no era, de hecho, una pieza auténtica de Kendrick para evitar confusión.
Responsabilidad de los Involucrados
La disputa entre Kendrick y Drake ha dejado claro que múltiples partes interesadas deben desempeñar un papel en la regulación del uso de la IA en la industria musical:
Público: Es esencial que el público cultive la alfabetización en IA para distinguir entre medios auténticos y sintéticos, aunque la carga no debería recaer solo en los espectadores.
Artistas: Los músicos y otros creadores deben seguir prácticas éticas al usar contenido generado por IA en su trabajo, como el Marco de Medios Sintéticos, que enfatiza la importancia de la transparencia y la obtención del consentimiento adecuado.
Discográficas: Las discográficas, como las que tienen contratados tanto a Kendrick como a Drake, deberían implementar políticas sobre el uso de la IA en la música de sus artistas y apoyar a sus artistas para entender y navegar las complejidades del uso de la IA en la música.
Gobierno: A medida que se crean políticas en torno a la IA, los legisladores deberían considerar leyes que protejan los derechos individuales. Esfuerzos recientes como la Ley ELVIS de legisladores en Tennessee, que prohíbe el uso de IA para imitar la voz de un artista sin permiso, son ejemplos de cómo los legisladores pueden proteger los derechos individuales. Por supuesto, también deben explorar cómo se realizará la aplicación de estas leyes.
La disputa entre Kendrick y Drake ha resaltado los muchos desafíos que la IA en la industria musical plantea. A medida que los medios sintéticos se vuelven más sofisticados y las herramientas de generación de IA se vuelven más accesibles, distinguir entre medios auténticos y sintéticos, tanto parcial como completamente, se volverá cada vez más desafiante. Las preocupaciones sobre el consentimiento y la autenticidad necesitarán ser abordadas y cumplidas con orientación responsable, como las Prácticas Responsables para Medios Sintéticos de CANIA. Siguiendo tales directrices y mejorando la alfabetización en IA, la industria musical puede adaptarse de manera responsable al cambiante paisaje de la música y la tecnología mientras fomenta la expresión creativa y preserva la integridad artística.