Review do Leitor

Colabore com a comunidade musical.

Search
.

Специальное предложение от Vavada Casino – 100 фриспинов для новых игроков! Это ваш шанс испытать удачу в одном из самых надежных онлайн-казино. Активируйте бонус по ссылке.

Inteligência artificial na música: recortes, fatos e análises

Nesse artigo consideramos o impacto da IA (Inteligência artificial) no processo criativo e técnico da produção musical. 

MusicaeMercado

Um setor em particular, a pós-produção de áudio, está passando por mudanças mais rápidas devido a AI. Isso significa grandes mudanças, agora e no futuro, para habilidades, emprego e trabalho. Muitos relatos sobre o papel da automação de máquinas na instabilidade ocupacional – especificamente, reduções no emprego humano. Essa artigo mostra em tópicos como esse processo está começando a alterar a cadeia de produção musical e também as novas tecnologias que podem substituir ou aumentar o potencial humano nessa área.

1 – O que é inteligência artificial?

A inteligência artificial (IA) é um ramo abrangente da ciência da computação preocupado com a construção de máquinas e algoritmos inteligentes capazes de realizar tarefas que normalmente requerem inteligência humana. Embora a IA seja uma ciência interdisciplinar com várias abordagens, os avanços no aprendizado de máquina e no aprendizado profundo , em particular, estão criando uma mudança de paradigma em praticamente todos os setores da indústria de tecnologia. 

A inteligência artificial permite que as máquinas modelem, ou até melhorem, as capacidades da mente humana. E desde o desenvolvimento de carros autônomos até a proliferação de ferramentas generativas de IA como ChatGPT e Googles Bard, a IA está se tornando cada vez mais parte da vida cotidiana das pessoas comuns e dos profissionais.

2 – As primeiras aplicações da IA no áudio

As primeiras tentativas de música gerada por computador apareceram na década de 1950 com foco na criação de música algorítmica. O advento da música gerada por computador por pioneiros como Alan Turing com o computador Manchester Mark II abriu múltiplas possibilidades de pesquisa em inteligência musical onde sistemas computacionais poderiam reconhecer, criar e analisar música.

Turing ajudou a criar uma das primeiras gravações de música de computador, reaproveitando sons de sinal em um dos primeiros computadores de Manchester. Foto da Biblioteca de imagens da Science & Society.

Especificamente, os primeiros experimentos se concentraram na composição algorítmica (um computador que usa conjuntos formais de regras para criar música). Em 1957, vimos a primeira obra composta exclusivamente por inteligência artificial — Illiac Suite for String Quartet. 

Lejaren Hiller e Leonard Isaacson. Foto do Illinois Distributed Museum

Através do uso de modelos matemáticos e algoritmos, Lejaren Hiller (um compositor americano) e Leonard Isaacson (um compositor e matemático americano) criaram Illiac Suite, a primeira peça original composta por um computador. Para conseguir essa façanha, eles usaram um algoritmo de Monte Carlo que gerava números aleatórios que correspondiam a certas características musicais como tom ou ritmo. Usando um conjunto de restrições, essas características aleatórias foram limitadas a elementos que seriam musicalmente ‘legais’ conforme definido pelas regras da teoria musical tradicional, probabilidades estatísticas (como cadeias de Markov) e a imaginação dos dois compositores.

Outro inovador neste campo foi Iannis Xenakis, um compositor e engenheiro, que usou probabilidades estocásticas para auxiliar na criação de sua música. Um processo estocástico é um mecanismo com distribuições de probabilidade aleatórias que não podem ser previstas, mas podem ser analisadas estatisticamente. No início dos anos 60, ele utilizou computadores e a linguagem FORTRAN para entrelaçar múltiplas funções de probabilidade para determinar a estrutura geral e outros parâmetros (como tom e dinâmica) de uma composição.

Xenakis modelou sua música como se estivesse modelando um experimento científico. Cada instrumento era como uma molécula e passaria por seu próprio processo estocástico e aleatório para determinar seu comportamento (a frequência do tom e a velocidade de certas notas). Seu trabalho introduziu novos métodos para a criação de som, mas também serviu como um dos primeiros exemplos de IA funcionando como uma ferramenta de análise complementar, em vez de apenas uma ferramenta de composição. A forma como Xenakis criava suas melodias e orquestrações para diferentes instrumentos se inspirava nos espaços sonoros modelados pelo processo estocástico.

Em 1965, o inventor Ray Kurzweil estreou uma peça para piano criada por um computador capaz de reconhecer padrões em várias composições. O computador foi então capaz de analisar e usar esses padrões para criar novas melodias. O computador estreou no programa de perguntas e respostas I’ve Got a Secret e deixou os apresentadores perplexos até que o astro de cinema Henry Morgan adivinhou o segredo de Ray.  

Em 1997, um programa de inteligência artificial chamado Experiments in Musical Intelligence (EMI) parecia superar um compositor humano na tarefa de compor uma peça musical para imitar o estilo de Bach .  (Fonte: Wikipedia )

3 –   Período de transição – Modelagem generativa (1980 – 1990)

Nas décadas que antecederam a era moderna da música, o foco mudou da geração algorítmica mais simples para a modelagem generativa. Otto Laske, proeminente pesquisador no campo da áudio, descreve essa mudança como a diferença entre um robô musical e uma inteligência musical.

Um robô musical é mais parecido com os primeiros experimentos dos anos 50 e 60 – ele pode reconhecer padrões, tem uma gramática para música e tem um senso geral de resolução de problemas, mas atinge seus objetivos com métodos bastante diretos e contundentes. Por outro lado, a inteligência musical substitui a abordagem de busca de força bruta do robô por um sistema de compreensão baseado em conhecimento com sua própria consciência de como os elementos musicais podem funcionar. Essa tendência de sistemas de IA construírem sua própria compreensão autossuficiente de elementos musicais foi a base para a inteligência musical mais sofisticados que vemos hoje. Outros desenvolvimentos neste período continuaram a explorar os limites da criatividade computacional. Por exemplo, Robert Rowe criou um sistema em que uma máquina pode inferir a métrica, o andamento e as durações das notas enquanto alguém toca livremente em um teclado. Também em 1995, a Imagination Engines treinou uma rede neural com melodias populares, ativando o aprendizado por reforço, levando à geração de mais de 10.000 novos refrões musicais. O aprendizado por reforço envolve o treinamento de uma rede neural para atingir um objetivo, recompensando/punindo o modelo com base nas decisões que ele toma para atingir um objetivo especificado.

4 – Período atual (anos 2000 – presente)

Durante a década de 2010, testemunhamos o surgimento de algoritmos de aprendizado de máquina inteligentes e rápidos e sua integração gradual em software de produção musical. Agora, os cérebros artificiais de incontáveis ​​plug-ins, plataformas, suítes de masterização virtual (https://www.landr.com)  e até mesmo compositores estão prontamente  ao volante como motoristas conscientes das ferramentas criativas de hoje. 

Vejamos abaixo alguns desses aplicativos inteligentes:

Síntese Vocal Avançada:  Os clones vocais deepfake de artistas famosos provocaram sentimentos contraditórios na indústria da música. No entanto, no fundo, os mesmos avanços estão ajudando a empurrar a síntese vocal para um novo território.

Tentar construir uma voz humana com um computador não é nada novo. Um sintetizador de canto como o VOCALOID6  tem uma história que remonta aos anos 2000 e, em sua iteração mais recente, começou a usar IA para melhorar o instrumento de voz sintetizada. Você pode digitar as letras, selecionar o tom e ajustar o sotaque. Pode cantar em japonês e inglês e, a partir de 2023, chinês também.

Assim como qualquer instrumento de software, como um piano virtual, ele tenta recriar a coisa real. Mas ao contrário de como a música deepfake é criada , a empresa trabalhou com cantores reais para desenvolver vários perfis vocais.

Se você está procurando uma alternativa mais jovem, experimente o Synthesizer V da Dreamtonics . A empresa foi fundada em 2019 no momento em que a tecnologia de IA começou a acelerar e atingir o status de mainstream, e os resultados são impressionantes

Concebido pela primeira vez em 2001, o Continuator era um software de aprendizado de máquina. Ele reuniu dados sobre como os músicos tocavam e aprendeu a complementá-los de maneira inteligente, improvisando em tempo real usando os dados coletados sobre como eles tocavam como modelo. Seu inventor, François Patchet, viria a ser um grande jogador no desenvolvimento do Spotify.  

Entre as primeiras grandes aplicações de IA em plug-ins de mixagem de música, o Adaptiverb da Zynaptiq inspeciona o áudio de origem e, usando o ressintetizador Bionic Sustain, cria a cauda de reverberação perfeita e sob medida, por meio de centenas de osciladores em rede. Ele estabeleceu um novo precedente para destacar os benefícios práticos do aprendizado de máquina em toda a produção. 

Tecnologia Assistiva de Áudio da iZotope (2016)

Izotope; uma empresa que abraçou o potencial de economia de tempo da IA ​​como poucas outras, a útil tecnologia de áudio assistido da iZotope é o molho secreto por trás de produtos emblemáticos como RX de aprimoramento de áudio e Ozone de aperfeiçoamento de som. Ao analisar o áudio de forma inteligente e aplicar correções rápidas, o iZotope provavelmente economizou coletivamente anos preciosos dos profissionais no estúdio.

5 – Como a IA está mudando a tecnologia de áudio

“Uma vez que o método de pensamento da máquina tivesse começado, não demoraria muito para superar nossos fracos poderes. Eles seriam capazes de conversar uns com os outros para aguçar sua inteligência. Em algum momento, portanto, devemos esperar que as máquinas assumam o controle”. Assim como a previsão sombria que o pai da inteligência artificial, o gênio da computação Alan Turing previu. Embora, felizmente, ainda não estejamos enfrentando um ponto final tão assustador, a noção de Turing de um cibercérebro controlado por uma máquina, continuamente aguçando seus sentidos por meio de diálogo e refinamento constantes, é um conceito que está no cerne da aplicação comercial de inteligência artificial

Em nossa indústria, podemos ver isso talvez mais claramente do que qualquer outro. Multidões de ferramentas de software baseadas em IA agora disponíveis, que se destacam em tarefas (como edição de frequência, separação de mixagem, restauração de áudio e masterização) que levariam muito, muito mais tempo para serem executadas por operadores humanos altamente qualificados. O refinamento constante e as rotinas de aprendizado adaptativo permitem que os caminhos de software baseados em IA sejam aprimorados. Embora o termo ‘inteligência artificial’ seja normalmente atribuído a qualquer software que dependa de algoritmos para cumprir seus critérios, na verdade existe um amplo espectro de definições. Existem aqueles que simplesmente desencadeiam uma série de ações pré-determinadas que seus criadores criaram cuidadosamente e existem aqueles gênios virtuais semelhantes a HAL (iZotope RX 9 , Zynaptiq Adaptiverbpor exemplo) que pode inspecionar uma forma de onda, diagnosticar com precisão o que precisa ser feito para trazer mais clareza a ela.

Melissa Misicka, Diretora de Brand Marketing da iZotope, nos explica que usar a inteligência artificial para esse fim sempre foi uma ambição da empresa; “Um de nossos objetivos como empresa é encontrar maneiras de eliminar tarefas de produção de áudio mais demoradas para nossos usuários, para que eles possam se concentrar em sua visão criativa. Apresentar a tecnologia assistiva – que pode analisar seu áudio de forma inteligente e fornecer pontos de partida recomendados – pareceu uma maneira perfeita de fazer isso.”

Não se trata apenas de tornar os processos demorados mais rápidos. Muitos veem a IA como um método para realizar as tarefas que os humanos são incapazes de realizar. A iZotope explica como essa ideia foi colocada em prática. “Um exemplo é a separação de fontes para limpeza de fala.” Misicka nos diz: “Nossos módulos como Dialogue Isolate ou De-rustle dependem dele para atenuar sons indesejados como passos, chilrear de pássaros ou farfalhar de um microfone escondido nas roupas. O reparo manual desses ruídos seria muito trabalhoso, pois os ruídos mudam no tempo e se sobrepõem à fala”

“Outro exemplo é a síntese inteligente de sons de substituição.” Melissa continua: “Quando a fala vem de uma chamada telefônica, seu espectro de frequência fica limitado a 4 kHz, o que resulta em um som abafado característico. O módulo Spectral Recovery do RX usa aprendizado de máquina para recriar a banda de frequência superior ausente com conteúdo sintetizado realista para melhorar a qualidade da fala. As formas manuais de síntese de alta frequência incluiriam ferramentas como um excitador, mas a qualidade e a plausibilidade do conteúdo sintetizado não chegariam nem perto dos resultados do aprendizado da AI. 

Sonible

A gama de plug-ins Sonible apresenta “ pure:comp ”, “ pure:verb ” e “ pure:limit ”, entre muitos outros. Projetados pensando nos criadores, esses plug-ins oferecem aprimoramento de som de nível profissional usando tecnologias de ponta. O conjunto de controle simplificado permite modelagem de som sem esforço, com opções poderosas para ajustar sua mixagem.

“ Pure:limit ” equilibra a dinâmica e encontra o nível perfeito para sua mixagem com apenas um toque de um botão. Enquanto isso, “ pure:comp ” e “ pure:verb ” oferecem processamento alimentado por IA e perfis característicos, parametrizando automaticamente para resultados de alta qualidade.

RoEx é uma plataforma da web onde produtores, músicos e podcasters podem enviar seu áudio, fornecer algumas configurações simples e obter um produto final polido e com som profissional em poucos minutos. A tecnologia inovadora cuida de todo o trabalho mundano, permitindo que você se concentre em ser criativo. Depois que a IA terminar de mixar, sua faixa estará pronta para distribuição imediatamente. Nenhum trabalho tedioso de pós-produção ou revisões intermináveis. Os serviços de mixagem AI também são fornecidos como uma API escalável e rápida. Isso significa que você pode integrar facilmente a tecnologia RoEx em seu fluxo de trabalho existente, permitindo otimizar ainda mais seu processo de produção.

Uma das aplicações mais benéficas da IA ​​para músicos domésticos tem sido a rápida disponibilidade de serviços de masterização orientados por algoritmos. Tome LANDR por exemplo, o software perspicaz deste serviço de assinatura se apoia em uma mina de inteligência extraída de 20 milhões de faixas masterizadas. Ele usa essas informações para calcular como aplica o aumento de frequência personalizado e o brilho auditivo à sua música. “Quando o LANDR foi lançado pela primeira vez em 2014, era a primeira solução desse tipo para masterização de IA baseada em nuvem”. Patrick Bourget, Diretor de Produto da LANDR, nos conta. “Em 2016, o cenário começou a ver alternativas semelhantes, mas muito menos refinadas, surgindo no mercado.”

6 –   Inteligência artificial vs Humanidade

Com a prevalência cotidiana de plataformas como LANDR, Patrick Bourget parece uma boa pessoa para perguntar sobre como ele vê essa dinâmica humano/máquina evoluindo no futuro, especificamente no domínio de masterização; “Dado o ritmo acelerado de criação e os orçamentos muitas vezes apertados dos produtores musicais em todo o mundo, sentimos que sempre haverá espaço para os engenheiros de masterização e masterização de IA “. Mas fora da masterização a sensação geral é que a IA veio para somar e não para substituir o processo humano na música e no áudio.

A iZotope ecoa este ponto fundamental, de que as aplicações de inteligência artificial mais bem-sucedidas até hoje são aquelas que ajudam criativos e profissionais a atingir seus objetivos, e não aquelas que buscam suplantá-los. “Muitas vezes imaginamos nossa tecnologia assistiva como, literalmente, um assistente de estúdio que pode dar o primeiro passo nos reparos ou fazer uma mixagem para você enquanto você toma um café.” Melissa explica: “Reforçamos que a missão das ferramentas de assistência da iZotope não é substituir a experiência profissional, mas treinar aqueles que ainda estão aprendendo, sugerindo os próximos passos, e ajudar aqueles que são mais experientes, levando-os a um ponto de partida. mais rapidamente.”

Embora seja indiscutível que a inteligência artificial continuará a penetrar em nossas vidas diárias em muitos níveis, é claramente aparente que, em vez de encolher diante de seu potencial insondável, músicos e produtores têm mais a ganhar do que perder com suas habilidades em constante desenvolvimento.

7 –   As vantagens da mixagem e masterização com a IA

Consistência:  A mixagem e masterização AI podem ajudá-lo a garantir a consistência em várias faixas, fazendo com que soem como se estivessem juntas e também uma mix com mais transparência e definição. 

Economia de tempo: A mixagem e masterização AI podem economizar tempo automatizando todo o processo de masterização. Em vez de dominar manualmente cada faixa, as ferramentas de IA podem analisar e aprimorar várias faixas em questão de minutos.

Custo-benefício:  As ferramentas de mixagem e masterização de IA são muito mais baratas do que contratar um profissional. Elimina a necessidade de pagar pelo tempo de estúdio e pelos serviços de um engenheiro de mixagem/masterização.

•Acessibilidade: O software AI é acessível a todos, independentemente do nível de experiência em produção musical. O processo é simplificado e fácil de usar, permitindo que você se concentre nos aspectos criativos de sua música sem se prender aos detalhes técnicos.

8 – As desvantagens da mixagem e masterização com IA

Masterização online instantânea: Landr, eMastered e AI Mastering:

Landr , eMastered e AI Mastering são serviços que dominam as faixas instantaneamente, e tudo o que você precisa fazer é carregar a faixa. É bastante barato, variando de $ 5 a $ 39 por mês, e é rápido. (Junte isso com sites lindamente projetados e você terá toda a atenção da geração do milênio). Existem alguns problemas com esses serviços: eles oferecem opções mínimas de edição e, simplesmente não soam tão bem quanto a masterização humana. Você está preso com a masterização que eles lhe dão, não há opções de ajuste fino disponíveis. Quando se trata de comparações lado a lado com o domínio humano, Landr e seus contemporâneos simplesmente não fazem o corte.

Resumindo: Landr, eMastered e AI Mastering são ótimos se você estiver com um orçamento apertado ou com pouco tempo, mas definitivamente não são suas melhores opções.  Definitivamente sugeriria aprender a dominar suas próprias faixas ou enviar suas faixas para um profissional.

Plug-ins híbridos AI/Manual: iZotope’s Neutron 3 Mixing Assistant e Ozone 9 Mastering Assistant:

As versões mais recentes do IZotope de seus aclamados plug-ins Neutron e Ozone agora incluem alguns elementos de IA. O Neutron 3 apresenta Mixing and Balance Assistant e o Ozone 9 agora possui um Mastering Assistant. Cada uma dessas ferramentas do Assistente ouve sua música em tempo real (ainda sem carregamento off-line) e equilibra, mixa ou masteriza sua música automaticamente. Cada um deles tem predefinições que você pode escolher e algumas maneiras de personalizar o resultado. Essas ferramentas são bastante úteis, mas não devem ser o fim de tudo.

Esses assistentes de mixagem e masterização funcionam bem como ponto de partida ou se você quiser apenas experimentar algo diferente. Os assistentes eliminam muito do trabalho pesado, mas ainda precisam de um ouvido treinado para obter o som certo. Além disso, posso definitivamente prever alguns casos em que tentar fazer com que o assistente de IA identifique os instrumentos corretamente pode dar mais trabalho do que vale a pena. No entanto, se você for seguir o caminho da IA, essas ferramentas são definitivamente o melhor caminho a percorrer.

Em resumo, o software de mixagem e masterização AI pode economizar tempo e dinheiro e isso é especialmente importante para produtores que estão apenas começando e têm recursos limitados. No entanto, existem algumas desvantagens reais na masterização que devem ser consideradas antes de entrar na onda da IA. 

Aqui estão algumas vantagens da masterização manual analógica:

1 – Na masterização analógica: equipamentos de alta qualidade que irá incorporar sua assinatura sônica no seu áudio (mesmo sendo somente um summing).

2 – A experiência dedicada do profissional de anos de serviços técnico nessa área.

3 – Possível revisão com sugestões para a sua mix.

4 –  Aquele toque humano final que dará mais vida e calor à sua música.

9 – IA e direitos autorais 

Quem é o dono da música gerada por inteligência artificial? E se o software de IA pode ser inspirado por músicas existentes e gerar novas músicas de estilo semelhante, os direitos autorais se tornam uma área cinzenta?

Como toda nova área da tecnologia, a IA promete gerar muito trabalho para os advogados. Cliff Fluet, da empresa de consultoria de mídia Eleven, insiste: “Não é nada cinza. É que as pessoas não gostam de ouvir a resposta, dependendo do que estão fazendo. Mas você fez a pergunta-chave e há um monte de advogados especulando sobre isso! “Essa é uma pergunta tão boa ou tão ruim quanto perguntar quem é o dono de um filme. A verdadeira resposta é que depende de como você o fez, quanto é seu e quanto pertence a outra pessoa. Até que ponto você está recebendo informações de atores, cenógrafos, terceiros e assim por diante? Até que ponto você criou algo totalmente original? A resposta é tão simples e sofisticada quanto isso. Cada um depende de como seus processos, como seus algoritmos, como suas escolhas são feitas. Se você for um advogado realmente bom, a resposta é muito, muito simples, desde que você realmente entenda a profundidade dos processos. Dado que a IA para produção musical é uma tecnologia emergente, essa é uma área legalmente testada?

Cliff Fluet: “Eu diria que é e não é. A lei sobre direitos autorais de música foi construída sobre uma tecnologia altamente não confiável chamada músicos e o cérebro humano. Você tem pessoas perguntando ‘E se uma máquina replicar outra coisa?’ – e é como ‘Bem, e se um artista replicar outra coisa?’, que é o que acontece todos os dias na indústria da música. Há perguntas reais sobre alguém realmente ouviu algo ou não? Alguém realmente adaptou algo? A lei não é diferente quando se trata de uma máquina ou de um ser humano. A diferença entre um ser humano e uma máquina é que com uma máquina você tem provas absolutas.”

Cliff aponta para casos legais anteriores em que “o júri tem que sentar e tentar descobrir se alguém ouviu algo, adaptou algo ou fez. Com uma máquina, você não precisa confiar em sua memória, você literalmente pode ver todas as notas lá, então, na verdade, acho que é mais fácil do que mais difícil. Descobrir se um humano roubou ou não uma composição ou se é dono ou não, ou se a compartilhou ou não, é muito, muito mais complexo do que uma máquina. No mínimo, os avanços na tecnologia podem ajudar.”

10 – O futuro da música com a IA

É provável que o futuro veja uma explosão de novas músicas criadas por pessoas que antes não tinham meios para fazê-lo, habilitadas por ferramentas baseadas em IA. Da mesma forma, músicos e produtores provavelmente encontrarão mais tempo para serem criativos e criar músicas de novas maneiras, deixando a IA para gerenciar tarefas funcionais repetitivas. É provável que a criação de música se torne parte das interações online das pessoas, com os consumidores criando e compartilhando novas músicas por meio de plataformas de mídia social.

A IA para produção e consumo de música é uma área enorme, e este artigo só pode oferecer uma amostra da pesquisa e desenvolvimento contínuos para serviços de música de IA. Como diz Cliff Fluet, “IA vai se tornar um termo tão útil quanto falar sobre ‘a Internet’. Vinte anos atrás, se eu tentasse descrever a Internet, você pensaria que era apenas uma plataforma – e na verdade foi o primeiro passo para algo enorme.”

As ricas oportunidades em torno da IA ​​levantam muitas questões e, até o momento, temos apenas algumas respostas. Muitos desenvolvimentos estão em sua infância e alguns timings permanecem incertos. O que é certo é que a IA estar recebendo muita atenção de grandes gravadoras, artistas número um, incubadoras de negócios e desenvolvedores de software de ponta, então as mudanças estão a caminho. Muitos colaboradores estimam que veremos uma mudança na produção e consumo de música nos próximos cinco a sete anos. A adoção generalizada se reduzirá à facilidade com que podemos interagir com nossas ferramentas de IA e à qualidade dos resultados finais, que estão avançando constantemente. Como acontece com qualquer tecnologia emergente, temos claramente a opção de usá-la e como queremos usá-la, e pode ser o mercado que molda a direção do software de IA. Todos os nossos colaboradores fizeram questão de enfatizar que a IA não substituirá artistas ou produtores. Paradoxalmente, quanto mais usamos IA na música, mais podemos aproximar as pessoas.

Pascal Pilon, da LANDR

Aponta que “a indústria da música é retardatária em muitos aspectos. Veja o mercado financeiro e como start-ups em todo o mundo estão buscando financiamento para desenvolver e comercializar produtos com a ajuda de parceiros de capital de risco. Na indústria da música, esse papel tem sido historicamente desempenhado pela gravadora, mas fechar um acordo com as gravadoras ainda é muito rudimentar. Acho que o modelo de financiamento da indústria da música se tornará cada vez mais baseado em dados, mais competitivo. Isso atrairá mais capital de um conjunto mais amplo de investidores, ainda envolvendo gravadoras, mas também um conjunto maior de pequenos a grandes investidores anjos”.

Pascal prevê que as gravadoras ainda precisarão investir pesadamente em talentos para promover a música. “Mesmo que haja IA, você ainda precisará de pessoas para trazer visibilidade aos artistas. Pense em marketing: a coisa mais rara que você consegue são ouvintes no espaço musical que gastam. Sua capacidade de levar as pessoas a ouvi-lo ainda exigirá um elenco de colaboradores do ponto de vista do marketing. Novamente, é muito semelhante à indústria cinematográfica. Veja como o orçamento de produção é importante – sim, eles são enormes, mas pense no orçamento comercial, que é ainda maior. Para chamar a atenção das pessoas, você precisará gastar em canais para entregar isso – pense no Facebook. Se você puder trazer viralidade para empresas como o Google e o YouTube, poderá ser independente, mas isso exigirá muita sofisticação do ponto de vista da promoção.”

11 – Considerações finais

A inevitável integração cada vez mais ampla da Inteligência Artificial no campo da produção musical aponta para uma era de transformações iminentes, estamos diante da necessidade de nos prepararmos para esta revolução por meio de estudos, pesquisas e capacitação, a fim de otimizar sua aplicação. É crucial enfatizar que esse processo está intrinsecamente ligado a elementos como plugins, aplicativos e DAWs, os quais imprimem sua qualidade sônica ao resultado final, e principalmente no contexto da masterização assistida por IA, a excelência do desfecho dependerá diretamente da qualidade do software empregado e do seu uso da forma correta. 

Do meu ponto de vista (Marlon Porto) é inegável que, até o momento, a qualidade sonora proporcionada por compressores, equalizadores, processadores e conversores especializados em masterização predominantemente analógicos, permanecem insuperáveis com resultados diferenciados, seguindo  assim o padrão da indústria fonográfica. 

Já na restauração; os softwares dedicados são insuperáveis com suas IAs. Na esfera da mixagem, embora o impacto seja menor até agora, é imperativo que as startups também reconheçam essa  preocupação, pois a qualidade e autenticidade sônica desempenham um papel importante, além disso, o algoritmo subjacente ao modelo de IA deve desempenhar um papel crucial na otimização do processo, porém sem comprometer outros elementos da mixagem, é crucial adotar uma abordagem consciente no uso destas tecnologias em evolução, pois enfrentamos um horizonte promissor, porém desafiador e uma mistura dos dois mundos é o recomendado até o momento.

*Autor: Marlon Porto é técnico de áudio da Promaster studio 

Fontes de pesquisas e recortes:

Teremos o maior prazer em ouvir seus pensamentos

Deixe um Comentário

Música & Mercado
Logo
Shopping cart