Uso indevido de obras protegidas e deepfakes com fins ilícitos desafiam o direito autoral e impulsionam endurecimento legal no Brasil
Propriedade Intelectual, Direitos Individuais e IA: Fronteiras em Construção
A inteligência artificial (IA) generativa revolucionou a criação de conteúdos, trazendo consigo não apenas desafios complexos para a proteção da propriedade intelectual (PI), mas também novas ameaças aos direitos fundamentais da pessoa humana. Duas questões centrais dominam o debate jurídico:
- É legal usar conteúdos protegidos por PI como dados de treinamento para IA?
- Os conteúdos gerados por IA podem ser protegidos por direitos autorais, patentes ou marcas?
No Brasil, a Lei nº 9.610/98, que regula os direitos autorais, exige autoria humana para a concessão de proteção, o que ainda deixa lacunas para obras geradas exclusivamente por inteligência artificial. Como destacou Ana Carolina Cagnoni em artigo no JOTA, o sistema jurídico brasileiro ainda busca respostas claras diante da rápida evolução tecnológica.
Paralelamente, cresce a preocupação com o uso criminoso da IA em práticas como deepfakes, fraudes digitais, ataques à honra e violência psicológica, particularmente contra mulheres.
No Brasil, essas questões estão impulsionando mudanças legislativas, incluindo a recente atualização do artigo 147-B do Código Penal, que estabelece sanções específicas para crimes cometidos com auxílio de inteligência artificial.
Enquanto a legislação específica ainda se consolida, o sistema jurídico brasileiro enfrenta o desafio de equilibrar inovação tecnológica com a proteção dos direitos individuais e da propriedade intelectual.
Input: Obras Protegidas no Treinamento de IA
O uso de livros, músicas, imagens e vídeos protegidos por direitos autorais como dados de treinamento de modelos de IA pode configurar infração se realizado sem autorização ou licenciamento. A falta de transparência sobre os datasets utilizados por grandes modelos de IA é um ponto crítico, com implicações que vão além do direito autoral, incluindo:
- Concorrência desleal: empresas podem lucrar indevidamente ao usar obras protegidas sem compensação;
- Proteção de dados pessoais: dados sensíveis podem ser processados sem consentimento.
A ausência de regulamentação específica no Brasil torna essas práticas um terreno fértil para disputas judiciais.
Output: Conteúdos Gerados por IA Podem ser Protegidos?
A proteção de conteúdos gerados por IA depende do tipo de propriedade intelectual considerado:
- Direitos autorais: no Brasil e em países como os EUA, apenas obras com contribuição humana criativa são protegidas. Casos como a imagem “A Recent Entrance to Paradise”, de Stephen Thaler, tiveram registros negados por falta de autoria humana;
- Patentes: o caso DABUS revelou que patentes exigem um inventor humano. O Instituto Nacional da Propriedade Industrial (INPI) e outros escritórios globais rejeitaram pedidos baseados exclusivamente em criações de IA;
- Marcas: o registro de marcas não exige autoria humana, apenas ineditismo e distintividade. Assim, logomarcas geradas por IA podem ser registradas no INPI, desde que não conflitem com marcas existentes.
Crimes com IA: Quando o Uso Indevido Vira Infração Penal
O uso de IA para manipular obras ou imagens de terceiros podem ainda tipificar outros crimes, que não aqueles ligados à PI, com penas agravadas em casos específicos. No Código Penal Brasileiro os principais dispositivos aplicáveis incluem:
- Art. 138 a 140: crimes contra a honra (calúnia, difamação e injúria);
- Art. 171: estelionato, incluindo fraudes digitais;
- Art. 307: falsa identidade;
- Art. 147-B: violência psicológica contra a mulher com uso de tecnologia, como deepfakes.
Art. 147-B do Código Penal: Marco Legal Pioneiro sobre Uso Criminoso da IA no Brasil
A alteração promovida pela Lei nº 14.811/2024 no artigo 147-B do Código Penal representa o primeiro dispositivo penal brasileiro a tratar expressamente do uso de tecnologias, como a inteligência artificial, na prática de crimes.
Veja o texto legal atualizado:
Art. 147-B
Causar dano emocional à mulher que a prejudique e perturbe seu pleno desenvolvimento ou que vise a degradar ou a controlar suas ações, comportamentos, crenças e decisões, mediante ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à sua saúde psicológica e autodeterminação:
Pena
Reclusão, de 6 (seis) meses a 2 (dois) anos, e multa, se a conduta não constituir crime mais grave.
Parágrafo único
A pena é aumentada de metade se o crime é cometido mediante uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere imagem ou som da vítima.
O novo dispositivo reconhece que ferramentas digitais, como IA, já são usadas para infringir direitos fundamentais, especialmente a dignidade e a imagem de mulheres, e prevê punições mais severas nesses casos.
É profundamente lamentável que o pioneirismo do marco legal brasileiro sobre inteligência artificial esteja vinculado a um dos problemas sociais mais graves do país: a violência contra a mulher, que segue vitimando inúmeras pessoas anualmente em suas diversas formas.
Contudo, esse marco pode desempenhar um papel educativo e preventivo. Sua relevância histórica servirá como um alerta constante contra estes abusos, promovendo uma reflexão crítica sobre a responsabilidade ética no uso da tecnologia e no combate a essa violência.
Deepfakes e Música: Danos no Ambiente Digital
O uso indevido de IA na indústria musical é alarmante. Segundo a Sony Music, mais de 75 mil faixas deepfake são removidas mensalmente de plataformas de streaming. Essas faixas, muitas vezes criadas sem consentimento dos artistas, buscam monetização fraudulenta, configurando:
- Estelionato: pelo lucro obtido com a identidade alheia;
- Violação de direitos autorais: pelo uso não autorizado de vozes e obras protegidas.
A sofisticação dessas manipulações dificulta a identificação e remoção, ampliando os prejuízos para artistas e gravadoras.
Tendência: Rastreabilidade e Responsabilização
A ausência de um sistema robusto de registro de obras no Brasil, combinada à complexidade das tecnologias de IA, torna difícil rastrear a origem de conteúdo. Para enfrentar esses desafios, especialistas defendem:
- Rastreabilidade: identificação clara das obras e dados usados no treinamento de IA;
- Regulação específica: normas dedicadas para outputs gerados por IA;
- Responsabilização objetiva: penalização de quem utiliza IA para violar direitos de terceiros.
O Marco Legal da IA (PL 2338/2023), em tramitação no Congresso Nacional, poderá estabelecer diretrizes relevantes para o uso ético e responsável dessas tecnologias.
Conclusão
A interseção entre IA e propriedade intelectual está redefinindo os conceitos de criatividade, autoria e responsabilidade.
No Brasil, o uso indevido da IA — como na criação de deepfakes ou manipulação de obras protegidas — já é objeto de sanções civis e penais, especialmente com a nova redação do artigo 147-B do Código Penal.
Para equilibrar inovação e proteção de direitos, é essencial investir em:
- Atualização legislativa;
- Educação sobre o uso ético da IA;
- Ferramentas de rastreabilidade e transparência.
Empresas, criadores e desenvolvedores devem reconhecer que o avanço da inteligência artificial exige não apenas inovação, mas também responsabilidade ética e jurídica. A tecnologia, em si, não é boa nem má — como advertia São Tomás de Aquino, “a bondade ou malícia moral do ato depende de sua conformidade com a reta razão”. Assim como uma faca pode servir tanto ao pão quanto ao crime, a inteligência artificial é instrumento cujo valor moral repousa na intenção do agente e nas circunstâncias do uso.
Cabe à sociedade, portanto, estabelecer limites e finalidades que assegurem que essa poderosa ferramenta sirva à dignidade humana e à preservação dos direitos fundamentais, e não à sua erosão.