Como se proteger de fraudes de ingressos on-line?

O Advogado especialista em Direito Digital e Crimes Cibernéticos, José Milagre, participou em 22/04/2024 do Fala Brasil, em matéria especial sobre o golpe dos ingressos na internet, onde criminosos clonam postagens e sites oficiais para aplicar golpes. 

https://record.r7.com/fala-brasil/video/saiba-como-se-proteger-do-golpe-dos-ingressos-na-internet-22042024/

Com o vasto mercado e a facilidade de realizar a compra de ingressos para filmes, shows, teatro e etc., o ambiente virtual também pode trazer grandes riscos às vítimas de golpes de ingressos orquestrados por cibercriminosos. Para se proteger desses criminosos e garantir uma experiência segura de compra de bilhetes, é de extrema importância ficar atento a todos os detalhes. 

  1. Sempre compre ingressos em sites e contas oficiais ou de revendedores autorizados diretamente pelo evento, e sempre evite vendedores terceirizados ou plataformas não autorizadas e divulgadas pelo evento.
  2. Antes de realizar qualquer pagamento, sempre se certifique que o site em que está é seguro. Procure por “https” no URL, o que indica que a conexão é segura, como também sempre verifique se há um símbolo de cadeado na barra de endereço, já que indicam que o site é seguro e criptografado. 
  3. Não compartilhe nenhum dado pessoal ou dados de pagamentos com sites terceirizados e não oficiais. 
  4. Tenha cuidado e sempre desconfie de ofertas com descontos excessivos, promoções irrealistas ou táticas de vendas de alta pressão usadas por golpistas.

Seguindo todos esses conselhos e ficando sempre em alerta ao adquirir  ingressos para eventos, você pode reduzir significativamente o risco de ser vítima de golpes, como também pode garantir uma experiência segura e agradável em eventos ao vivo.

José Milagre & Advogados.

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




Investigação forense e perícia digital em deep fakes de áudios e conteúdos criados com Inteligência Artificial

O uso das deepfakes para fins ilícitos

O surgimento da Inteligência Artificial (IA) generativa, traz em si inúmeros desafios para a sociedade, abrindo um leque de opções para criminosos e fraudadores digitais. Em um ambiente de contratações online onde imagem, vídeo e áudios podem expressar manifestações de vontade, fatos ou ações, as novas possibilidades da IA generativa acendem o alerta de pessoas e autoridades.

A exemplo, em  uma guerra eleitoral digital, já tem notícias de deepfakes colocando políticos e figuras públicas em situações embaraçosas, seja um vídeo em um contexto inexistente ou mesmo uma mensagem de áudio comprometedora.

Tal evolução tecnológica e, logicamente, o seu uso para más finalidades, vem demandando atenção do mundo todo sob o prisma regulatório. Enquanto a legislação amadurece, surgem inúmeros casos em que perícia digital precisará enfrentar o desafio de dar respostas sobre a suposta criação de um conteúdo por inteligência artificial ou não.

A guerra eleitoral com o uso do armamento “IA”

A falsificação de áudios em vídeos reais podem representar danos a um processo eleitoral ou responsabilizar pessoas de forma indevida. Nos Estados Unidos (EUA), por exemplo, um áudio com a voz do Presidente Joe Biden instigou os eleitores a não votarem nas eleições primárias de um estado-chave.

Os próximos anos serão marcados pelo uso de deepfakes e IA para criar conteúdo sintético e ofensivo em redes sociais, o que demandará a atuação de assistentes técnicos forenses e peritos digitais, no esclarecimento da verdade, em contribuição com a verdade técnica em casos judiciais e corporativos.

A facilidade em gerar e influenciar com deep fakes de áudio

Se antes peritos utilizavam técnicas para detectar adulterações em áudios e conteúdos reais, o desafio agora é detectar não uma mera modificação que deixa rastros, mas uma criação a partir de prompts e parâmetros, de um conteúdo realístico, de difícil detecção e sintético.

Pesquisas recentes [1], revelam que metade das pessoas não conseguem fazer distinção entre conteúdos gerados por IA e conteúdos reais, gerando assim uma exploração por parte dos criminosos para gerar conteúdos ofensivos e ilícitos. Uma preocupação especial está nos áudios sintéticos “cheapfakes”, que são mais fáceis e baratos de serem produzidos.

Estes áudios podem ser compartilhados através de whatsapp, comunicadores, ou mesmo serem reproduzidos em ligações telefônicas que podem ser “gravadas”, e até mesmo motivar decisões equivocadas, investigações e processos judiciais e administrativos indevidos.

As técnicas de produção de áudios sintéticos são mais avançadas, por outro lado, é mais difícil ao cidadão detectar manipulações, como nos vídeos com sobreposição de voz. Além disso, a perícia técnica nestes arquivos depende de inúmeros fatores, a exemplo, se o áudio está trafegando por um aplicativo ou rede social, certamente já perdeu seus metadados, e então sobraria a conhecida fonética forense, com análises que dependem de coleta de amostras de voz, análise de waveforms, análise espectral, dentre outras, que podem indicar dísticos de emendas digitais ou manipulações.

Times digitais para combater uso ilícito da IA e regulamentações

Empresas, personalidades e comitês de campanha eleitoral precisam de monitoramento contínuo nas eleições futuras. As ferramentas de IA poderiam denunciar a autoridades solicitações de gerações suspeitas, o que não garantem que assim o façam, considerando que alguém pode usar uma ferramenta no Japão para gerar um conteúdo ofensivo no Brasil, o que passaria despercebido pelos “detectores”.

As empresas de fact check precisam de peritos forenses digitais para auxílio e análises de conteúdos, de modo a desmistificar conteúdos antes que ganhem escala nas redes e influenciem decisões, até mesmo perigosas. Ferramentas como ElevenLabs, Resemble AI, Respeecher e Replica Studios, permitem gerar áudios ou clonar voz em poucos cliques.

Neste sentido, a mera “suspeita instintiva” de se tratar de IA na manipulação de áudio não pode servir de base para descaracterizar ou descredenciar a autenticidade de um conteúdo, usado como prova de um crime, infração, ou de um fato. É necessário que a perícia digital em IA e áudios atue neste processo, realizando análises fonéticas, de metadados e demais análises aplicáveis, a depender da amostra.

As empresas e comitês precisam de canais para recebimento de supostos vídeos e áudios ligados à Inteligência Artificial, para que possam ser analisados. A popularização da viralização, pode ser conferida em sites analisadores, como BuzzSumo. Os regulamentos e normas precisam enfrentar o uso da IA para más finalidades, como nos Estados Unidos, onde a Comissão Federal de Comunicações proibiu o uso da IA em chamadas automáticas [2].

Como a perícia digital em deepfakes e inteligência artificial podem atuar

Além das análises realizadas a partir de amostras de voz, algumas plataformas já desenvolvem tools que auxiliam ou ao menos já  detectam a IA desenvolvida em seu ambiente, em prestígio a ética e responsabilidade no uso da IA com oSpeech Classifier da Eleven Labs [3]. Outros detectores úteis são AIorNot, que pode ser utilizado para detecção de imagens e também de áudios sintéticos.

Outras tools proprietárias já permitem integrar em sistemas via API, para detectar falas falsas geradas a partir da IA, como o caso da Loccus.ai [4]. A Reality Defender é outra empresa dedicada à detecção de falsidades geradas com a IA [5]. O Ai Voice Detector, também oferece um serviço de detecção online [6]. Sensity também é uma ferramenta a se  considerar [7]. As análises devem ser somadas à investigação cibernética, envolvendo análise WHOIS (informações) do site que hospeda um conteúdo, quebra de sigilo dos perfis que divulgam conteúdos e análises de ondas sonoras com ferramentas como Audio Mass [8] na identificação de pontos de criação, além da análise de metadados, que pode indicar os tags do programa AI generator na estrutura dos arquivos além das datas de acesso, criação e modificação. Se a voz é gerada por IA, as ondas sonoras provavelmente serão muito claras e semelhantes entre si, porque a geração de som por IA é essencialmente um processo de desenho de som. Por outro lado, gravações de áudios criados por uma pessoa, tendem a soar mais naturais com variações.

Conclusões

Deste modo, os desafios da perícia de detecção de áudios com deepfakes, passa pela suficiência da amostra, sanitização ou manutenção de metadados,e identificação de padrões dos geradores, o que impede que esta seja uma perícia com apenas uma metodologia.

Em tal ambiente, a “análise multimodal” tem sido considerada pela perícia como a mais adequada, envolvendo análise de múltiplas fontes de dados e metadados e do contexto de canais de transmissão, aliado a análises de percepção humana, de modo a se buscar responder o ponto controvertido e que muito ecoará nos próximos anos: Este conteúdo é real ou feito com Inteligência Artificial?

A perícia precisa se atualizar e se valer de técnicas, ferramentas e principalmente dos algoritmos de aprendizado de máquina que estão se atualizando para auxiliar na detecção e análises de deepfakes e que poderão ser aplicados por perito digital em IA,  aprender padrões e características destes conteúdos sintéticos, bem como automatizar processos de análises periciais envolvendo conteúdos questionados por seus autores ou interlocutores.

Como contratar um perito em inteligência artificial e detecção de deepfakes?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos, politicos, na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.

NOTAS

[1]https://bpb-us-w2.wpmucdn.com/sites.northeastern.edu/dist/f/4599/files/2023/10/report-1017-2.pdf

[2]https://www-sfchronicle-com.translate.goog/news/politics/article/alert-fcc-outlaws-ai-generated-voices-in-18655936.php?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=sc&_x_tr_hist=true

[3]https://elevenlabs.io/ai-speech-classifier0

[4]https://www-loccus-ai

[5]https://www-realitydefender-com

[6]https://aivoicedetector.com/

[7]https://sensity-ai

[8]https://audiomass.co/




Golpe do call center: criminosos se passam por funcionários bancários para aplicarem fraudes

O Advogado especialista em Direito Digital e Crimes Cibernéticos, José Milagre, participou em 02/03/2024 do Jornal Nacional, em matéria especial sobre o golpe do Call Center, onde criminosos burlam chamadas telefônicas de bancos para aplicarem golpes.

Para aplicarem fraudes, golpistas geralmente obtêm informações básicas sobre clientes bancários, como nome completo, número de conta e outras informações pessoais que podem ser facilmente adquiridas por meio de vazamentos de dados ou até mesmo em redes sociais. Com esses dados em mãos, os criminosos ligam para os clientes se passando por funcionários legítimos do banco e solicitam informações adicionais, como senhas, códigos de segurança ou até mesmo a realização de transferências bancárias.

Ao agir com persuasão e urgência, os golpistas conseguem manipular os clientes para que estes forneçam as informações solicitadas, muitas vezes sem desconfiar da fraude. Com esses dados em posse, os criminosos podem acessar as contas bancárias das vítimas, realizar transações fraudulentas e causar prejuízos financeiros significativos.

Para se proteger do golpe do call center, é fundamental que os clientes estejam cientes das práticas seguras ao lidar com chamadas telefônicas suspeitas. Incluindo: Nunca fornecer informações confidenciais por telefone, como senhas, códigos de segurança ou números de cartão, Entrar em contato com a instituição financeira através dos canais oficiais caso haja qualquer suspeita de fraude e Manter-se sempre informado sobre as técnicas utilizadas pelos golpistas.

Conclusão

O golpe do call center representa uma ameaça séria à segurança financeira dos consumidores, exigindo vigilância constante e educação sobre práticas seguras ao lidar com chamadas telefônicas suspeitas. Ao adotar medidas preventivas e estar atento aos sinais de fraude, é possível reduzir o risco de se tornar vítima desses criminosos.

https://globoplay.globo.com/v/12404910/

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados.

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




A manipulação das escolhas sobre a privacidade no design de aplicações e os perigos dos “Dark Patterns”.

Meu Kindle chegou, tirei da caixa, abri e a primeira mensagem que vejo na tela é meu nome e uma informação de que ele já estava conectado ao wi-fi, considerando que estes dados (senhas) já são conhecidos dos serviços Amazon.

É assustador e ao mesmo tempo intrigante saber que a senha do seu wi-fi, talvez fornecida à Alexa ou outro dispositivo, foi compartilhada com o novo aparelho – ao ligá-lo – que automaticamente se conectou à rede, logicamente, tendo acesso a outros dispositivos.

É mais comum do que parece as gigantes da tecnologia usarem “políticas de privacidade mãe”, genéricas, e termos específicos para seus dispositivos ou produtos. E é lógico que a assimetria é evidente, pois assim como muitos, não me lembro quando “consenti” com o compartilhamento de dados com dispositivos amazon.

Poderíamos empregar energia para enquadrar as atividades da gigante no legítimo interesse, embora saibamos que muitas gigantes confiam no consentimento, pois sabem que ele é mais fácil de ser arrancado das pessoas, graças aos dark patterns e bad defaults.

Ao conceituar uma taxonomia da privacidade, Daniel Solove propõe a importante classificação das violações à privacidade em quatro grandes eixos, coleta de dados, processamento de dados, compartilhamento de dados e invasões. Na categoria invasões chegamos à importantíssima interferência decisional, decisional interference. Nada mais é do que um ataque à autonomia e autodeterminação. Condutas que interferem no processo de decisão do indivíduo no que diz respeito aos assuntos de privacidade.

A interferência decisional pode se dar, hoje, por meio de padrões escuros, técnicas embutidas na programação e interface de plataformas, aplicações e dispositivos, e que reduzem a capacidade do titular de dados de proteger seus dados pessoais. Information Zuckering, a exemplo, é o nome dado a manipulações que usam processos complexos para obter os dados do titular. A técnica pode estar aliada a Bad Defaults, que como visto, são configurações padrão menos protetivas, arquitetadas em high level design no escopo de manipular os usuários, que sequer percebem os riscos do que estão compartilhando, em termos de dados pessoais.

Mas o principal dark pattern adotado pelas gigantes tech são as estipulações ocultas (hidden stipulation), ocultando maliciosas estipulações e cláusulas que dificilmente serão notadas, quer pela linguagem, quer pelo design (normalmente em telas de difícil leitura) arquitetado para que pessoas não tenham acesso claro às disposições e concessões que serão feitas com o clique no botão “Avançar”.

Ao compartilhar a senha wi-fi com outro dispositivo, sem qualquer aviso, pressupõe um tratamento não claro. E ao não dar escolha ao usuário em um design que ou se avança ou não se usa o dispositivo, e sem qualquer link com as normas que sugere no aviso, percebe-se não só violação a princípios de proteção de dados, mas uma violação de interferência decisional, por meio de padrões nocivos a titulares de dados e estipulações ocultas.

Empresas devem se afastar destes padrões ajudando usuários a entenderem como seus dados serão usados e compartilhados, destacando práticas nas políticas com implementações de avisos just-in-time sobre o UX do sistema. Pode-se considerar, por exemplo, quanto ao timing, avisos persistentes, sempre que um dispositivo iniciar o tratamento de algum dado pessoal ou mesmo compartilhá-lo com outro dispositivo.

No mundo digital, a privacidade do usuário é um aspecto crucial do design UX, e é justamente por isso que para garantir que sites e aplicativos mantenham a privacidade dos usuários, os designers devem adotar as melhores práticas que protejam os dados e transfiram  maior confiança ao seu público, como políticas de privacidade claras e transparentes, minimização da coleta de dados, anonimização e pseudonimização e  controle do usuário sobre os seus dados.

Uma política de privacidade facilmente acessível é essencial para qualquer site ou aplicativo e deve ser clara e detalhada em como os dados dos usuários são coletados, usados e compartilhados. Além disso, a política de privacidade deve estar exposta em um local de destaque para garantir que os usuários os encontrem facilmente , como o menu principal do aplicativo ou o rodapé do site, dando a opção dos titulares dos dados a revisarem, acrescentar ou excluir informações que não gostariam de serem compartilhados.

Ao minimizar a coleta de dados dos usuários, os riscos de violações de dados e uso indevido é reduzido significativamente, por isso se deve coletar apenas os dados essenciais de seus usuários.

As técnicas de anonimização e pseudonimização consistem em uma abordagem usada para proteger a privacidade do usuário removendo e substituindo informações de identificação pessoal por dados não identificáveis, garantindo que, mesmo que uma violação de dados ocorra, as informações expostas não sejam rastreadas até seus titulares.

Tal reflexão é apenas uma gota em um mar de tratamento irregular de dados que é garantido pela manipulação do consentimento, com uso de técnicas perigosas “dark patterns”, e que também se aproveitam da falta de fiscalização a este nível, considerando que muitas autoridades ainda se contentam com formulários de perguntas e respostas, acreditando nos esclarecimentos prestados por grandes agentes de tratamento.

A engenharia de privacidade deve desempenhar seu papel essencial neste cenário, por meio de revisão de design e códigos (high e low level), testes de usabilidade para privacidade, bem como zelando para a adoção de Privacy by Design Strategies, como minimizar, ocultar, abstrair e principalmente, apresentar o “enforce”, no sentido de que o tratamento de dados se dê de modo “privacy friendly”, sempre, zelando-se para que o cumprimento das políticas possam ser demonstrados, por meio de logs de atividades de processamento, auditorias independentes e outras estratégicas técnicas.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




A recusa de serviços e transações com base em tratamento automatizado de dados: Quais os riscos e os direitos dos clientes e titulares de dados?

É mais que sabido que as instituições financeiras, bancárias, lojas e demais serviços, dado o crescente número de golpes cibernéticos, valem-se de serviços ligados a antifraudes, com o escopo de preservar as operações dos negócios e a segurança dos clientes.

Estes sistemas, vendidos e integrados em e-commerces, fintechs, projetos DEFIS e outros, atuam em diversas frentes, gerenciando o processo de onboarding, logins, identidade, comportamentos anômalos, validação de dados e permitindo que fluxos sejam criados em negócios digitais.

Os sistemas antifraude, no entanto, não são 100% humanizados, valendo-se de  algoritmos, análises de dados e inteligência artificial para avaliar o risco de cada transação, identificando padrões suspeitos e bloqueando as tentativas de fraude. Deste modo, atuam prevenindo as principais modalidades existentes em serviços online: A de créditos de identidade e a de devoluções (chargebacks), fazendo frente também às fraudes internas, que comumente contam com apoio de colaboradores.

É evidente que o bom funcionamento dos sistemas antifraude está atrelado à capacidade de  coleta de dados, envolvendo dados espontaneamente cedidos e dados coletados de forma inconsciente, como atividade de navegação, browser fingerprints, dados do dispositivo e dados de outras fontes. Alia-se a isso o uso de Inteligência Artificial (IA), e outras ferramentas de análises e geração de scores sobre atividades e pessoas.

Dentre os critérios usados, diversos, a depender das ferramentas, envolvem facematch, biometria, documentoscopia, análise comportamental, dentre outras validações. É evidente que, enquanto verdadeiras máquinas de bloqueios e impedimentos de golpes, o que de fato é um dos critérios para se evitar responsabilização judicial, por outro lado, aclara uma outra problemática: o bloqueio e negativa de fruição de produtos e serviços, a partir do tratamento automatizado de dados pessoais.

Cabe ao comitê de proteção de dados e data protection officer, conceber e revisar critérios de precisão, juntamente com engenheiros de privacidade, de modo a se evitar transações legítimas rejeitadas, minimizar erros e atuar no suporte à calibragem do sistema.

Questão que vem provocando reflexões, são as negativas de vendas, créditos, abertura de contas ou autenticações feitas por meio de processos automatizados de onboarding, trilhas de auditorias e anti-fraude. Isso pode ter reflexões jurídicas?

Na Europa, a GDRP estabelece em sua consideranda 47,  que o tratamento de dados pessoais estritamente necessários aos objetivos de prevenção e controle da fraude constitui igualmente um interesse legítimo do responsável pelo seu tratamento”.

Como previsto no inciso IX do art. 7. da LGPD, é permitido o tratamento de dados pessoais quando necessário para atender aos interesses legítimos do controlador ou de terceiros. Estaria então a atividade amparada pelo legítimo interesse, o que não significa que os demais direitos dos consumidores e titulares de dados sejam anulados neste contexto. Já o tratamento de dados pessoais sensíveis, só será permitido nas hipóteses previstas nos casos do inciso I e II  do art. 11 da LGPD.

Destaque-se ainda que o art. 20 da LGPD confere ao titular de dados pessoais o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados, o que, aliás, é a prática na maior parte das soluções de antifraude bancário e e-commerce.

Deste modo, ao realizar bloqueios indevidos de valores ou contas sob fundamento de suspeita de fraude e ilicitude, e não oportunizando revisão ou desconsiderando documentos apresentados para comprovação da procedência de transações, ou mesmo sem fundamentar adequadamente, apenas justificado “ser o sistema anti-fraude”, a instituição não cumpre seu dever de informação e transparência e em nosso sentir, viola os princípios da informação e da transparência, configurando, portanto, o ato ilícito.

Não é mais crível que alguém se contente com a recusa na fruição dos serviços, com base na informação: “foram nossos sistemas antifraude”.

O bloqueio indevido de contas, transferências, usuários e vendas é infortúnio que de longe ultrapassa o mero aborrecimento e causa inequívoco dano moral e dever de reparação, sobretudo diante da falta de oportunidade de contestação ou desconsideração dos dados enviados no sentido de prova a legitimidade das transações suspensas ou bloqueadas..

A este respeito, cite-se importantes julgados da Justiça Paulista, que vem condenando empresas, lojas e instituições que falharam nos processos de anti-fraude, barrando, negativando ou cancelando operações legítimas, e em alguns casos, não oportunizando defesa:

Responsabilidade civil – Sistema antifraude da fornecedora de serviços que impede consumidor de consumar compras de passagens aéreas com pontos – Compra que foi realizada em outro voo, em condições desvantajosas, com maior demora para chegada no destino da viagem, causa de transtornos – Negativa de responsabilidade pela fornecedora que não se sustenta – Defeito caracterizado pelo bloqueio indevido causado por seu sistema antifraude – Ainda que não houvesse defeito, responderia pelo risco da atividade – Ressarcimento dos pontos a mais gastos para compra de passagens em outro voo – Condenação em indenização por danos morais de R$ 7.000,00 para cada autor – Danos morais configurados – Indenização de R$ 7.000,00 mantida para o primeiro autor, reduzidas, para R$ 5.000,00 para as demais autoras – Recurso provido em parte.

(TJ-SP – RI: 10019302520188260125 Capivari, Relator: Mauro Antonini, Data de Julgamento: 30/04/2019, 1ª Turma Recursal Cível, Data de Publicação: 16/05/2019)

Indenizatória – Contrato de transporte aéreo – Emissão de bilhete pela internet com pagamento via sistema de pontos (“Pontos Fidelidade”) – Prova do vínculo e pagamento – Cancelamento do bilhete e negativa de embarque da passageira pela não confirmação da licitude da operação feita via internet – Regularidade de sistema antifraude – Não reconhecimento – Ônus da companhia aérea como fornecedor do serviço derivado da disponibilização da possibilidade de compra de passagens aéreas pela internet – Risco da atividade que não pode ser repassado ao consumidor do serviço – Inexistência de fato plausível a justificar o comportamento da ré. Dano material – Perdas e danos – Devolução do valor pago por desembolso – Termo “a quo” de incidência dos juros de mora a partir da data da citação – Inteligência do art. 405 do Código Civil – Sucumbência exclusiva do réu. Compensação moral – Artigos 186 e 927, do Código Civil – Regra de unicidade – Fatos da causa – Fixação de valor único – Dever de observância – Ausência de prova da ocorrência de danos imateriais próprios e desvinculados dos fatos objeto da relação contratual mantida pela ré com a uma das partes reclamantes – Prática de atos por reclamante limitados a expressão de vontade – Responsabilidade das partes limitada ao ajuste, inclusive quando às perdas e danos igual ao efetivo prejuízo – Código Civil artigo 402. – Correção do valor – Não aplicação da Súmula 54, do STJ – Incidência dos juros de mora a partir do arbitramento – Artigo 407 do Código Civil. Recurso provido em parte, com determinação.

(TJ-SP – APL: 09522682620128260506 SP 0952268-26.2012.8.26.0506, Relator: Henrique Rodriguero Clavisio, Data de Julgamento: 18/10/2016, 18ª Câmara de Direito Privado, Data de Publicação: 24/10/2016)

Recurso inominado. Gestão de pagamentos. Falhas no procedimento. Sistema antifraude. Bloqueio não devidamente justificado por considerável lapso. Privação dos recursos próprios. Dever de indenizar. Danos morais configurados. Fixação do montante razoável e proporcional. Sentença mantida. Recurso não provido.

(TJ-SP – RI: 00006598620218260094 SP 0000659-86.2021.8.26.0094, Relator: Maria Esther Chaves Gomes, Data de Julgamento: 20/03/2022, Turma Recursal Cível e Criminal, Data de Publicação: 20/03/2022)

Recurso de decisão do Tribunal Geral – Cláusula compromissória – Convenções de subvenção celebradas no âmbito do Programa de Apoio à Política de Tecnologias da Informação e da Comunicação (TIC) – Relatório de auditoria – Notas de débito emitidas pela Comissão Europeia com vista à cobrança de determinados montantes – Recurso de anulação – Inquérito do Organismo Europeu de Luta Antifraude (OLAF) – Pedido reconvencional – Reembolso integral das subvenções em causa – Direitos de defesa – Princípio da boa administração – Imparcialidade – Princípio da proporcionalidade – Dever de fundamentação.

(Acórdão do Tribunal de Justiça (Sétima Secção) de 29 de setembro de 2022 – Health Information Management (HIM)/Comissão Europeia)

Como visto, a não adequada “justificativa” do bloqueio por meio de sistemas anti-fraude é um dos principais fatores que ensejam a condenação de serviços. De fato, ao confiar em sistemas de terceiros o anti-fraude, muitos e-commerces e negócios colocam verdadeiras soluções fechadas, incapazes de detalhar como os algoritmos funcionam em um caso concreto e esse generalismo começa a ser visto como violador pela Justiça.

 O sistema antifraude precisa de cuidado especial do encarregado de proteção de dados (DPO) e engenheiro de privacidade, com monitoramento constante, garantindo-se que transações legítimas não sejam bloqueadas acidentalmente e principalmente, que informações claras sejam prestadas por estes serviços terceirizados em casos de questionamentos de clientes, de modo a reduzir riscos de responsabilização.

A revisão contratual da fintech, banco ou loja com os serviços anti-fraude, sobretudo com cláusulas de responsabilização e cooperação em casos de questionamentos por clientes e titulares é mais que fundamental.

Neste contexto, ponderando reflexões sobre este intrigante tema e sem pretensão de exaurir a temática, considerando a necessária observância às dinâmicas do serviços antifraude, é possível estabelecer claramente que um sistema que vem para beneficiar pode se constituir um risco se não alinhado com práticas e princípios de compliance e privacidade.

Considerando os direitos dos consumidores e sobretudo o direitos ligados ao tratamento automatizado de dados, é importante que empresas estabeleçam capacitação de seus colaboradores, revisão constante das ferramentas de monitoramento, estabeleçam processos de revisão manual que considerem dados pessoais, registros de compra, transações financeiras, formas de pagamentos e demais dados e principalmente, constituam efetivos canais de contato para que os clientes e consumidores possam contestar de forma fácil uma transação ou serviço negado a partir das conclusões algorítmicas automatizadas.

A recusa automatizada de operações e transações legítimas pode não só ser prejudicial à marca, mas representar processos administrativos e judiciais com prejuízos significativos àqueles que negligenciam com processos claros e assertivos de análise.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




A importância do compliance jurídico na tokenização de imóveis

O compliance Jurídico na tokenização de imóveis é essencial para garantir que transições e negócios sejam realizados de acordo com as leis e regulamentos aplicáveis no território nacional, devendo também abordar questões como a proteção dos investidores, a transparência na informação, a segurança dos dados e a responsabilidade das partes envolvidas no processo.

Em termos gerais, tokens são unidades digitais de valor, que existem como entradas de registro em uma blockchain, na qual são passíveis de transferência de modo descentralizado. É uma abordagem inovadora que oferece uma maneira nova e eficiente de investir em propriedades imobiliárias, ou seja, ao invés de comprar uma propriedade inteira, os investidores podem adquirir pequenas participações, chamadas “tokens”, em um portfólio de propriedades selecionadas. Essa técnica permite que investidores diversifiquem seus investimentos e reduzam seus riscos.

Sendo um método inovador que envolve a conversão de ativos imobiliários em tokens digitais que permite a divisão e a negociação fracionada, o compliance jurídico obtém um papel crucial, já que garante que todas as operações relacionadas à tokenização imobiliária estejam em conformidade com os regulamentos e Leis aplicáveis, isso inclui questões relacionadas à segurança jurídica das transações, proteção de investidores e prevenção de lavagem de dinheiro.

O Rio Grande do Sul, em Novembro de 2021 estabeleceu-se regulamento acerca da Tokenização por meio do Provimento n°38/2021, que estabelece os requisitos para validade:

I- Declaração das partes de que reconhecem o conteúdo econômico dos tokens/criptoativos objeto de permuta, especificando no título o seu valor.

II- Declaração das partes de que o conteúdo dos tokens/criptoativos envolvidos na permuta não apresenta direitos sobre o próprio imóvel permutado, seja no momento da permuta ou logo após, como conclusão do negócio jurídico representado no ato;

III- Que o valor declarado para os tokens/criptoativos guarde razoável equivalência econômica em relação à avaliação do imóvel permutado.

IV- Que os tokens/criptoativos envolvidos na permuta não tenham denominação ou endereço (link) de registro em blockchain que deem a entender que seu conteúdo se refira aos direitos de propriedade sobre o imóvel permutado. 

Por mais que o provimento não seja uma legislação completa, ele possibilitou que os tabeliães de notas do Estado lavrassem escrituras públicas de permuta de bens imóveis com contrapartida de tokens/criptoativos, mediante a condições.

Iniciativas interessantes como a Pixway, revelam o surgimento de Startups e negócios prontos para tokenizar os mais diferentes setores de ativos. A Pixway funciona como uma espécie de cartório digital, ou seja, companhias emitem certificados de origem das obras de imóveis e as registram no Blockchain.

Dentre os inúmeros benefícios, a tokenização de imóveis traz maior liquidez, possibilidade de maior circulação, compra de frações, maior controle, celeridade, menor burocracia e tudo com base em um smart contract administrável e de modo centralizado, com tokens representando frações de um ativo, e com isso, garantindo ao titular a utilidade de exercer direitos obrigacionais e outros benefícios.

Por mais que a tokenização imobiliária proporcione uma diversidade de benefícios e inovações para investidores, é crucial reconhecer e avaliar os riscos, podendo ser ele riscos de mercado, riscos de segurança cibernética, riscos de liquidez, riscos operacionais e riscos regulatórios.

A volatilidade do mercado imobiliário pode acabar afetando os valores de ativos gerados, ou seja, mudanças nas condições econômicas ou políticas podem impactar negativamente o desempenho dos investimentos, como também a falta de regulamentação adequada que proteja os ativos de cibercriminosos.

Embora a liquidez seja uma das maiores vantagens da tokenização, a capacidade de vender tokens rapidamente pode ser prejudicada por condições atuais de mercados desfavoráveis ou pela falta de demandas por ativos específicos, incluindo questões de transparência e custódia de ativos.

Ao entender os benefícios e os riscos, investidores podem tomar decisões mais minuciosas e analisar se o seu investimento é apropriado para a tokenização.

Com a intenção de expandir a tokenização de imóveis, a Netspaces, uma startup de digitalização, lançou o programa “Sandbox da Propriedade Digital”, com o objetivo de preparar o mercado para as transações imobiliárias digitais. O projeto consiste na preparação de um novo mercado influenciado pela chegada do real digital (DREX), que foi apresentado pelo Banco Central do Brasil e que irá possibilitar a criação e execução de contratos inteligentes em transações de imóveis.

Tokenização não é hype, é realidade! E enganam-se aqueles que acreditam que é ilegal ou inviável no Brasil. Apesar da legislação ultrapassada, arranjos e planejamento jurídico especializado por advocacia especializada em criptoativos permitem e estão pavimentando estradas para projetos cada vez mais incríveis e rentáveis, em um mercado que crescerá milhões nos próximos anos.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




A Guerra digital envolvendo Inteligência Artificial e Deep Fakes nas Eleições 2024

Quais os benefícios e riscos e como a perícia digital em IA poderá contribuir com as campanhas. 

Em ano eleitoral, o próprio TSE sinaliza a dificuldade de fiscalização e punição das denominadas Fake News 2.0, que poderão ser impulsionadas pelo uso de Deep Fakes e Inteligência Artificial (IA).

O Deep Fake é um método que utiliza a Inteligência Artificial (IA) para trocar o rosto, sincronizar movimentos, expressões faciais e labiais, como também os demais detalhes de uma foto ou vídeo, o que acaba gerando um resultado convincente acerca de uma pessoa. Esse método, além de manipular fotos e vídeos, também é utilizado para a manipulação de áudios, ou seja, é capaz de criar gravações que simulam a voz de uma determinada pessoa.

A Inteligência Artificial (IA) consiste no uso de aparelhos eletrônicos e softwares capacitados para imitar pensamentos e comportamentos humanos acerca de decisões e execuções de tarefas, como o reconhecimento facial, assistente de voz e algoritmos de redes sociais que identificam quais posts e publicações possuem um grau de relevância de determinado conteúdo ou assunto à ser apresentado e entregue para pessoas e usuários de redes sociais.

A popularização de ferramentas e aplicações capazes de modificar falas, simular vídeos em situações vexatórias, fotos e demais recursos, absolutamente capazes de influenciar e criar estados mentais, que podem prejudicar candidatos, se tornaram mais frequentes nas últimas eleições não só no território nacional, como também em outros países.

Ao olharmos para nossos vizinhos, podemos constatar que as eleições Argentinas foram marcadas por vídeos falsos, inclusive de candidatos à presidência usando drogas, o que se tornou  altamente viralizado. Não há dúvida que a inovação será um desafio e demanda das campanhas a estruturação de grupos de inteligência e perícia digital, aptos a detectarem fakes e viralizações e atuarem desmistificando e identificando modus operandi e os autores, que comumente buscam o anonimato.

O uso das deep fakes na criação de conteúdo falso, inverídico, vexatório e enganoso inaugura uma era em que times digitais precisarão contar com apoio especializado de peritos digitais em inteligência artificial, na detecção se o conteúdo foi produzido com qual técnica, identificação da desinformações e atuação rápida, com vistas a remoção de conteúdos e identificação dos responsáveis, por meio de um time jurídico especializado em direito digital eleitoral.

São preocupações que não podem ser desconsideradas. O que fazer, por exemplo, se um áudio falso do candidato começar a circular pelo WhatsApp ou Telegram às vésperas do pleito? Como conter os boatos? como buscar a identificação da fonte e origem dos ataques? Os aplicativos podem ser obrigados a, a partir de metadados, bloquear a transmissão de arquivos feitos com a IA? Como responder adequadamente a incidentes envolvendo IA e criação de conteúdos realísticos?

É importante destacar que a PL 2338/2023, atualmente sob análise da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), visa estabelecer normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de IA no território nacional, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício da pessoa humana, do regime democrático e do desenvolvimento.

O Código Eleitoral, em seu artigo 323, a Lei 9504/97 das Eleições, e a Resolução n° 23.714/2022 punem a contratação de pessoas para que espalhem  desinformações, bem como a manipulação destas no escopo de confundir o eleitor.

No entanto, o grande desafio é a detecção ágil, remoção de conteúdo e a identificação dos autores, o que passa pela contribuição dos provedores de aplicações e serviços de mensageria privada. A Google, por exemplo, obrigará a sinalizar o uso de IA em anúncios eleitorais, já que a empresa alega que as “deep fakes” criadas por algoritmos de Inteligência Artificial confundem os eleitores a distinguir entre o fato e a ficção, tornando difícil de saber o que é real ou falso.

O TSE realizou entre os dias 23 e 25 de Janeiro de 2024 ,  uma audiência que teve como finalidade a discussão acerca das regras eleitorais para 2024. Através da minuta de resolução que trata da propaganda eleitoral, alterando a resolução n°23.610/2019.

Em seu Art. 3°-C, discorre que a campanha eleitoral deve seguir regramentos a respeito da transparência, como também avisar os cidadãos sobre o uso de tecnologia digitais, quando assim ocorrer. O art. 9°-B da mesma minuta, dispõe sobre a utilização na campanha eleitoral, de qualquer meio ou modo de conteúdo que se utilize de tecnologia digital:

9º-B. A utilização na propaganda eleitoral, em qualquer de suas modalidades, de conteúdo fabricado ou manipulado, em parte ou integralmente, por meio do uso de tecnologias digitais para criar, substituir, omitir, mesclar, alterar a velocidade, ou sobrepor imagens ou sons, incluindo tecnologias de inteligência artificial, deve ser acompanhada de informação explícita e destacada de que o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada, submetendo-se o seu descumprimento ao previsto no §1º do artigo 323 do Código Eleitoral, sem prejuízo de aplicação de outras medidas cabíveis quanto a ilicitude do conteúdo.

1º A fabricação ou manipulação de conteúdo político-eleitoral mencionada neste artigo refere-se à criação ou à edição de conteúdo sintético que ultrapasse ajustes destinados à melhoria da qualidade da imagem ou som. 

2º É vedada a utilização na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado de fatos sabidamente inverídicos ou gravemente descontextualizados com potencial de causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral, inclusive na forma de impulsionamento.

Na Europa, já se cogita que sistemas de IA para influência de eleitores em campanhas sejam classificados  “de alto risco” para que se submetam a compliance regulatório. No dia 9 de Dezembro de 2023, o Conselho e o Parlamento Europeu concordaram a assumir um compromisso com a proposta de regras harmonizadas. O “The EU’s AI Ac”,  que trata da Inteligência Artificial, visa estabelecer padrões globais para a regulamentação da Inteligência Artificial com o objetivo de preparar o caminho e garantir que o desenvolvimento da IA seja ético, seguro e confiável.

Ponto interessante diz respeito, igualmente, aos BOTS que podem ser operados por IA e assim, soarem como imperceptíveis ao eleitor, em comunicadores e redes sociais. Nos Estados Unidos, por sua vez, já ocorre a vedação que candidatos usem IA para enganar pessoas, bem como regras que determinam que os candidatos e campanhas/redes sociais desenvolvam avisos de tecnologia de que determinado conteúdo foi gerado por IA.

A regulamentação dessas regras eleitorais dependem de autoridades estaduais, já que o país possui uma tradição federativa. Segundo um levantamento, apenas cinco estados americanos (Califórnia,  Michigan, Minnesota, Texas e Washington) aprovaram leis proibindo o uso de IA em campanhas eleitorais.

Não há menor dúvida de que as eleições deste ano, como também as eleições futuras, serão marcadas pelo aumento das guerrilha digital e da desinformação, só que desta vez, sem montagens grosseiras, mas sim com produções indetectáveis por um não especialista, graças a popularização da IA Generativa e outras tecnologias acessíveis a todos.

A comunicação digital e a inteligência artificial ultrapassarão 50% dos gastos de campanha, pela primeira vez no Brasil. E diante dos riscos, a atuação da perícia digital em inteligência artificial poderá esclarecer inúmeros pontos de interesse de autoridades, ligados à meios de criação, autoria, repositórios encontráveis, constatação de falsidade e demais questões relevantes.

Não se descarta o uso positivo e benefícios oferecidos pela Inteligência Artificial no processo político eleitoral, como levantamento de dores, geração de anúncios, segmentação de eleitores e um poderoso instrumento no marketing político e construção de copies e discursos.

A união de ciência de dados e IA também pode ser muito benéfica para estratégias de campanha e construção de argumentos persuasivos. Na fase de pré-campanha, pode ser um importante recurso para construção de copies que engajem listas e aqueçam potenciais eleitores.  Já existem campanhas utilizando a tecnologia para, a partir de dados fornecidos, gerar outputs úteis  à construção de planos de governo.

Por outro lado, é inegável que a inovação poderá ser usada como arma em campanhas eleitorais. Partidos, coligações e comitês precisam estar atentos a isso e saber como reagir a ataques desta natureza.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




CYBERCRIMINOSOS SE APROVEITAM DE VOLTA AS AULAS PARA APLICAR GOLPES

Com o aumento de vendas em mercadorias escolares nessa época do ano, cybercriminosos clonam a aparência, o conteúdo e a funcionalidade de sites originais para enganar consumidores e roubarem suas informações. Em busca dos melhores preços, pais e consumidores sempre procuram por produtos que estejam em ofertas para que os gastos não saiam de dentro de seus orçamentos, mas é importante se manter alerta e tomar cuidado com ofertas que aparentam ser “boas demais para serem verdades”.

 

Como identificar sites clonados?

Sites clonados geralmente apresentam pequenas mudanças em suas URLs, podendo conter um número ou letra diferente, ou até mesmo a falta deles, modificando assim o original. Por isso, se mantenha sempre atento e se certifique de que o nome de domínio corresponde ao site oficial, procure também por indicadores de segurança, já que sites legítimos geralmente exibem um ícone de cadeado bloqueado ou https:// em seu URL, o que demonstra que o site usa criptografia e é totalmente seguro.

Fique atento a erros ortográficos e de gramática, cybercriminosos acabam não sendo tão perfeccionistas em seus detalhes, já que confiam na afobação por parte dos consumidores em adquirir produtos em ofertas exclusivas, que por sua maioria apresentam uma quantia limitada de produtos  disponível.

Cuidado!

Seja cauteloso e desconfie de comentários feitos no próprio site clonado. Prefira procurar por ele em sites de reclamações oficiais como o “Reclame Aqui”, e veja a experiência e comentários de outros usuários com o respectivo site, assim poderá determinar se o site é confiável ou não. Não clique em links ou anexos em e-mails, mensagens de aplicativos ou sms não solicitadas. sempre desconfie de ofertas ou solicitações inesperadas.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




Perito em inteligência artificial e Deep Fakes: A importância da prova técnica em questões jurídicas envolvendo IA

Introdução

O crescimento da inteligência artificial generativa, conectada a redes neurais e constituindo-se sistema inteligência para, a partir de aprendizado de máquina, construir sentenças, inferências e tomar decisões, com destaque para o ChatGPT, vem gerando uma revolução social, considerando os inúmeros benefícios do uso da Inteligência Artificial (IA) nos diversos setores comerciais e área do conhecimento.

Por outro lado, o uso para práticas de crimes vem preocupando autoridades e legisladores em todo o mundo. Europa, Estados Unidos e Brasil discutem a regulamentação da Inteligência Artificial.

Alia-se à Inteligência artificial, inúmeros sistemas de Deep Fakes, capazes de simular falas, gestos e ações, a partir de trechos de áudio, fotos ou vídeos de pessoas. No Brasil e em diversos países, inúmeras pessoas passam a ser vítimas de golpes, fraudes e crimes com uso indevido de áudios e imagens, inseridos em contextos criminosos. Com isso, cada vez maior será a demanda do Judiciário ligada a problemas e crimes praticados com uso da IA. Denota-se assim a necessidade do perito em Inteligência artificial, para solucionar as principais controvérsias que surjam em casos ligados à IA e seus usos nocivos.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

A inteligência artificial possui inúmeras vantagens e como visto, pode transformar o mundo nos próximos anos, no entanto, inúmeros desafios jurídicos surgem do possível uso indevido da tecnologia. Dentre os riscos jurídicos estão:

  1. Responsabilidade Civil: Se um sistema de IA causa danos a pessoas ou propriedades devido a erros, falhas ou decisões inadequadas, discute-se a questão da responsabilidade civil. Determinar quem é responsável por tais danos, seja o desenvolvedor, o usuário ou outro envolvido, pode ser complexo e pode demandar a atuação de um perito em inteligência artificial
  2. Violação de dados pessoais: O uso de IA em análise de dados pessoais pode levar a preocupações com a privacidade. Se algoritmos de IA processarem informações pessoais de maneira inadequada ou não autorizada, pode haver violações de leis de proteção de dados. O perito em inteligência artificial e proteção de dados poderá atuar na análise do suposto incidente, determinando as causas e os fatores.
  3. Discriminação e Viés: Algoritmos de IA podem herdar preconceitos presentes nos dados de treinamento, resultando em decisões discriminatórias. Isso pode levar a questões legais relacionadas à igualdade, diversidade e direitos civis. A prova técnica e simulações para verificar se realmente ocorre discriminação poderá ser realizada pelo perito digital.
  4. Segurança Cibernética: Sistemas de IA são suscetíveis a ataques cibernéticos. Se informações sensíveis forem comprometidas devido a falhas de segurança em sistemas de IA, pode haver implicações legais relacionadas à proteção de dados. Coletar evidências sobre um suposto incidente e compreender a extensão do dano é papel do perito digital em inteligência artificial.
  5. Propriedade Intelectual e direitos autorais: A questão da propriedade intelectual pode surgir no desenvolvimento de algoritmos de IA. Quem detém os direitos autorais sobre o código-fonte ou os dados usados no treinamento do modelo? Quem é dono dos outputs e textos gerados a partir de prompts? Estas questões poderão aparecer no judiciário, o que demandará a análise de um perito digital em inteligência artificial.
  6. Ética e Transparência: Questões éticas em torno do uso de IA, como a falta de transparência em algoritmos complexos, podem gerar preocupações legais. A exigência de explicabilidade e transparência pode ser um requisito legal em alguns contextos. Com o projeto de Lei 3238/2021, as IAs precisarão de alto risco de regras de compliance e poderão estar sujeitas à regulamentação de autoridade. Nestes casos, um perito em IA poderá avaliar e conceber pareceres sobre seu sistema, sobretudo sobre o risco algorítmico.
  7. Regulamentação e Conformidade: A falta de regulamentação clara em relação ao uso da IA pode resultar em incertezas legais. Em alguns casos, o não cumprimento de regulamentações existentes pode levar a penalidades. A atuação de um perito em conjunto com advogado especializado em IA poderá auxiliar no processo de compliance de negócios que utilizem a IA como base.

Como visto, são inúmeras as questões jurídicas que são trazidas com o uso da IA, porém, uma das grandes preocupações está na integração da IA com ferramentas de Deep Fakes, capazes de simular pessoas em vídeos e falas fakes e não reais. Os danos são imensos e com a inevitável crescente destas questões na Justiça, o papel do perito em inteligência artificial é cada vez mais fundamental.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

O uso indevido de Deep Fakes, que envolvem a criação de conteúdo audiovisual falso e realista por meio de técnicas de inteligência artificial, apresentando uma série de desafios jurídicos adicionais, incluindo mas não se limitando a:

  1. Difamação e Calúnia: Deep Fakes podem ser utilizados para criar vídeos ou áudios falsos com o intuito de difamar ou caluniar uma pessoa. Isso pode levar a questões legais relacionadas à reputação e à responsabilidade por danos. Identificar se determinado conteúdo é manipulado, quais técnicas usadas e por quem, pode ser tarefa atribuída ao perito digital em inteligência artificial.
  2. Fraude e Manipulação: O uso de Deep Fakes para enganar ou manipular, pode resultar em fraudes de diversas formas, desde fraudes financeiras até manipulação de eleições e criação de estados mentais no eleitor. Isso pode gerar implicações legais sérias considerando que vídeos poderão surgir e levarão pessoas à tomada de decisões erradas.
  3. Violação de Direitos Autorais: A criação de Deep Fakes muitas vezes envolve o uso de imagens e vídeos protegidos por direitos autorais sem permissão. Isso pode resultar em questões legais relacionadas à propriedade intelectual, uso indevido de imagem e direito concorrencial.
  4. Assédio, Extorsão e Intimidação: Deep Fakes também podem ser utilizados para criar conteúdo que visa assediar, intimidar ou difamar uma pessoa. Isso pode levar a processos legais relacionados à violação da privacidade e segurança pessoal.
  5. Pornografia de Vingança: Deep Fakes são frequentemente associados à criação de pornografia de vingança, onde o rosto de uma pessoa é sobreposto em conteúdo sexual explícito. Isso pode resultar em ações legais por difamação, violação de privacidade, violação ao Estatuto da Criança e do Adolescente e outros delitos. Na Justiça, o perito digital em inteligência artificial pode atuar auxiliando vítimas e acusados a provar tecnicamente seus direitos, atuando como assistente técnico.
  6. Fraude Eletrônica: Se Deep Fakes são usados para criar vídeos ou áudios falsos com o objetivo de enganar sistemas de autenticação ou realizar fraudes eletrônicas, isso pode resultar em questões legais relacionadas à cibersegurança e crimes eletrônicos. Já se tem inúmeras notícias de fraudes bancárias envolvendo facial attack e sistemas que manipulam fotos de pessoas para gerar o “liveness” necessário para que autentiquem em bancos. As fraudes envolvendo assinaturas eletrônicas, identidade digital e IA crescerão e o perito digital em IA poderá ser chamado para esclarecer o contexto e esclarecer tecnicamente o ocorrido.

Deste modo, a crescente prevalência de Deep Fakes destaca a necessidade de legislação e regulamentação para lidar com essas questões específicas, garantindo que a tecnologia seja usada de maneira ética e responsável. Muitos países estão começando a implementar ou considerar a legislação para abordar os desafios legais associados aos Deep Fakes.

No entanto, os problemas sociais surgirão e o Judiciário terá  que decidir embasado em provas técnicas, momento em que poderá ser assistido por perito em inteligência artificial. As partes, por sua vez, podem se valer de assistentes técnicos em processos cíveis, trabalhistas e criminais ligados à inteligência artificial.

O que faz o perito em IA e Deep Fakes?

O perito em Inteligência Artificial (IA) e Deep Fakes, é um profissional especializado em avaliar, analisar e fornecer expertise técnica relacionada a casos envolvendo o uso de IA, especialmente em contextos de Deep Fakes. Suas responsabilidades podem incluir:

  1. Análise Forense:Conduzir análises forenses em vídeos, imagens ou áudios para determinar se eles foram manipulados por meio de técnicas de IA, como Deep Fakes. Isso envolve examinar metadados, padrões de pixel, e outras características para identificar possíveis sinais de manipulação.
  2. Verificação de Autenticidade:Avaliar a autenticidade de mídias digitais, especialmente em casos onde a validade e integridade de vídeos ou imagens são questionadas. Isso pode envolver a comparação de dados originais com a mídia em questão.
  3. Desenvolvimento de Métodos de Detecção:Colaborar com pesquisadores e especialistas para desenvolver métodos avançados de detecção de Deep Fakes. Isso inclui a compreensão profunda das técnicas usadas na criação de Deep Fakes para desenvolver contramedidas eficazes.
  4. Testemunho em Processos Legais e provas técnicas simplificadas Fornecer depoimento como especialista em processos judiciais, explicando os métodos utilizados na análise e apresentando conclusões sobre a autenticidade ou manipulação de evidências digitais.
  5. Colaboração com Profissionais de Segurança Cibernética:Trabalhar em conjunto com profissionais de segurança cibernética para entender e combater ameaças relacionadas a Deep Fakes que podem ter implicações em segurança digital e privacidade.
  6. Assessoria de Compliance a empresas e organizações:Prestar consultoria a empresas e organizações que desejam proteger-se contra a manipulação de conteúdo por meio de Deep Fakes. Ou mesmo auxiliar empresas e negócios em pareceres e análises técnicas e algorítmicas necessárias para o compliance com agentes regulatórios.

Como funciona a perícia em inteligência artificial  e como detectar Deep Fakes?

A detecção de Deep Fakes pode ser desafiadora, uma vez que essas tecnologias estão em constante evolução e se tornam cada vez mais sofisticadas. No entanto, a perícia poderá atuar com abordagens e técnicas que podem ser utilizadas para tentar identificar Deep Fakes, dentre elas, podemos citar:

  1. Análise Visual:O perito em inteligência artificial irá analisar cuidadosamente o vídeo ou imagem em questão, procurando por  anomalias, artefatos visuais, inconsistências na iluminação e sombras, ou distorções nos contornos faciais que podem indicar manipulação.
  2. Comparação com Dados Originais:Se existir uma mídia original, uma prática da perícia em IA é realizar a comparação da mídia suspeita com fontes de dados originais, como fotos ou vídeos autênticos da mesma pessoa. As discrepâncias entre o conteúdo original e o Deep Fake podem ser reveladoras.
  3. Análise Temporal:Pode ser importante realizar a denominada análises de consistência temporal do vídeo. Deep Fakes podem ter problemas com a sincronização labial ou movimentos faciais que parecem inconsistentes com o áudio ou contexto do vídeo.
  4. Análise de Movimento:O Perito em Inteligência Artificial, pode realizar a análise do movimento natural das características faciais. Deep Fakes podem ter dificuldade em replicar movimentos sutis e expressões faciais autênticas.
  5. Sons e Vozes Artificiais:Em Deep Fakes de vídeos com áudio, o perito atua com a análise da  qualidade e coerência da voz. Alguns Deep Fakes podem apresentar artefatos sonoros ou discrepâncias entre a fala e os movimentos labiais.
  6. Ferramentas de Detecção Automática:Atualmente existem algoritmos, técnicas e ferramentas especializadas de detecção de Deep Fakes. Algoritmos e softwares foram desenvolvidos para analisar padrões específicos associados a Deep Fakes.
  7. Análise de Metadados da Mídia:Uma das análises mais comuns, sobretudo em questões de identidade e assinatura digital, é a análise dos metadados da mídia, como informações de data, hora e dispositivo de gravação. Inconsistências podem ser indicativos de manipulação.

Projeto de Lei 2338/2023

Atualmente, sob análise da Comissão Temporária Interna sobre Inteligência Artificial (CTIA) no Brasil, o Projeto Lei (PL) esclarece os princípios para o fomento, o desenvolvimento e uso seguro, confiável e responsável da Inteligência Artificial  (IA), tendo como objetivo proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

O PL fez algumas definições acerca da IA onde se encontram previstas em seu Art. 4:

  • Sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;

  • Fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;

  •  Operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

  • Agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;

  • Autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;

  • Discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;

  • Discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;

  • Mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial

O Projeto Lei ainda expõe os princípios para a proteção da espécie humana e dos dados pessoais:

  • Dignidade Humana: a IA deverá ser desenvolvida e utilizada de maneira a respeitar a dignidade, a liberdade e os direitos humanos, promovendo o bem-estar social e individual.

  • Proteção de Dados Pessoais: deverá ser garantida a proteção de dados pessoais, conforme as normativas legais vigentes, assegurando a privacidade e a segurança das informações.

  • Consentimento Informado: o consentimento livre, informado e explícito dos indivíduos deverá ser obtido para a coleta e uso de seus dados pessoais.

  • Transparência: os processos e decisões tomadas por sistemas de IA devem ser transparentes, auditáveis e explicáveis, permitindo a responsabilização dos desenvolvedores e operadores.

  • Não Discriminação: a IA deverá ser desenvolvida e operada de forma a prevenir e mitigar discriminações, vieses e preconceitos.

  • Educação e Conscientização: deverá ser promovida a educação e a conscientização sobre os impactos da IA na sociedade, bem como sobre os direitos dos indivíduos.

Deste modo, o  PL traz orientações de como os cidadãos brasileiros devem interagir com o sistema de Inteligência Artificial de modo em que seja priorizado o respeito, conhecimento e responsabilidade ao bem-estar jurídico e humano.

Conclusões

Dada a complexidade e a evolução rápida das tecnologias de IA, o papel do perito em inteligência artificial e Deep Fakes é fundamental para a identificação e mitigação de potenciais ameaças e para a garantia da autenticidade em ambientes digitais.

Lembre-se de que, à medida que as tecnologias de Deep Fake avançam, também o fazem as técnicas de detecção e o avanço da perícia digital em inteligência artificial. A pesquisa contínua e a colaboração entre especialistas em segurança, pesquisadores acadêmicos e desenvolvedores de tecnologias é essencial para melhorar as capacidades de detecção e mitigar o impacto potencial de Deep Fakes e demais usos indevidos da Inteligência Artificial.

Como contratar um perito em assinatura online?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br. Expertise, lealdade e ética. Conheça nosso curso de Perícia em Proteção de Dados Pessoais.

José Milagre & Advogados, Advogados de Fraudes Online

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




Como criar uma Exchange, OTC ou negócios de criptoativos: Riscos e cuidados Jurídicos.

É inegável que os criptoativos se tornaram mais importantes para a economia global, do que em qualquer fase de sua história, sendo diários e crescentes o oferecimento de criptoativos em portfólios de instituições financeiras seculares, por meio dos ETFs (fundo de investimento negociado na bolsa de valores em forma de ação), que estão sob análise da SEC (Comissão de Valores Mobiliários Americano) nos Estados Unidos, com previsão de aprovação em 2024.

Com isso, espera-se impacto significativo no mercado cripto, já que muitos investidores vistos como “conservadores” e que anteriormente preferiam não se arriscar por considerarem os criptoativos como uma classe de ativos de alto risco reputacional, ganharão mais confiança em sua estabilidade.

Como os criptoativos são criados?

As criptomoedas são criadas por processos tecnológicos e programações com metodologias acessíveis, o que de certo modo facilita a criação de tokens inúteis ou usados para fraudes e scam. Por existirem somente no ambiente virtual, seu desenvolvimento se dá por meio de códigos de hardwares e softwares específicos.

Os criptoativos podem ser transferidos e servirem para inúmeros propósitos, o que interfere também no aspecto regulatório, sendo as principais modalidades de tokens os não fungíveis NFTs, tokens de utilidade, tokens de governança, tokens de meio de troca, reserva de valor, dentre outros.

Blockchains

Os ativos digitais são transacionados em blockchains (Digital Ledger Technologies), existindo as blockchains públicas (sem qualquer controle governamental ou privado) e as privadas. As blockchains podem ser nativas ou próprias de um criptoativo, podendo também ser usadas por meio de smart contracts para criação de outros criptoativos, quando nominados de blockchains de terceiros, como por exemplo, a facilidade de se criar tokens a partir do padrão ERC-20 do Ethereum, que usa essa Blockchain. Para uma Exchange, um dos pontos de compliance é ter um processo bem definido sobre quais criptomoedas serão listadas, sobretudo sob o prisma da segurança, para se evitar danos ao cliente e responsabilidade civil.

Scripts White Label de OTPs e Exchanges

Muitas empresas de tecnologia disponibilizam scripts com plataformas prontas – são plataformas e scripts para serem instalados em domínios e servidores. As plataformas são completas e permitem trading e checagem de KYC (know your customer), como também alguns bots. No entanto, estes scripts e programas podem esconder malwares que podem lesar clientes, causando grandes prejuízos para o empreendedor. Por isso, é muito importante uma assessoria para avaliação dessas plataformas, antes de serem usadas pelo empresário ou negócio de criptoativos

Cuidados com plataformas de DEFI e Fintech

Negócios que simplesmente sobem plataformas no ar e começam a operar, mesmo sem formalização adequada ou análise de compliance, estão sujeitos a inúmeros riscos regulatórios, fiscais, cambiais, consumeristas e ligados à segurança digital. Neste contexto, uma assessoria jurídica especializada em negócios de criptoativos é essencial, da definição do enquadramento jurídico às operações.

Natureza Jurídica

Exchange é uma empresa de intermediação de compra e venda de criptoativos, onde transitam por meio de contas e wallets ativos de terceiros, fazendo com que as intermediadoras ganhem um percentual sobre as transações já realizadas. As OTCS estão ligadas a plataformas onde ocorre vendas de estoque próprio de criptoativos, realizadas sem intermediações. Estas características sutis interferem totalmente na classificação jurídica e tributária da empresa, ou no negócio de criptoativos. A exchange fatura com percentual sobre intermediação, e as OTCS faturam com spread (diferença entre valor de compra e venda de criptoativos), sendo que as OTCS, via de regra, não custodiam ativos de terceiros, logo, são menos fiscalizadas e reguladas que uma exchange, logicamente, impactando custos de estruturação jurídica.

Pontos jurídicos de atenção

A assessoria jurídica em fintechs e em negócios de criptoativos deve considerar a localidade do negócio e o compliance regulatório, envolvendo fiscal, societário, impedimentos, consumidor, normas cambiais e de remessa ao exterior, cooperação internacional, prevenção à lavagem de dinheiro e ocultação de patrimônio, dentre outros. As sociedades Exchanges devem ainda integrar capital social mínimo (Resolução CMN  4656/2018) e fazer segregação patrimonial.

Licenciamentos e prestação de contas

No Brasil, com o advento da Lei 14.478/2022, o Marco Legal dos Criptoativos, especificamente, em seu art. 8º, o Banco Central fica responsável por autorizar o funcionamento de Exchanges. A depender do negócio, poderá haver necessidade de observância às regras ligadas à CVM (valores mobiliários), Banco Central e entidades internacionais. Além disso, nos termos da IN 1888 da Receita Federal, é importante prestar informações ao fisco a respeito dos clientes e saldos das carteiras, caso a Exchange tenha sede no Brasil.  Do mesmo modo, deve-se cumprir normativas do Conselho de Controle de Atividades Financeiras, o COAF. Recentemente, inclusive, a CVM publicou a Resolução nº 175 , que dentre inúmeras atividades, os criptoativos são inseridos como ativos financeiros, sendo indispensável à empresas o auxílio de um jurídico para que as instituições financeiras se adaptem às regras.

Processador de pagamentos

Outro ponto que deve ser pensado sob o prisma jurídico na estruturação de negócios de criptoativos, é a parceria com processadores de pagamentos, que são empresas que receberão em moeda fiduciária o dinheiro dos clientes, realizando  a transferência para a Exchange. É importante que seja feita uma due diligence nas empresas, para evitar dissabores ligados a golpes, fraudes, uso indevido de dados pessoais e outros incidentes.

Segurança by default e responsabilidade civil

É importante destacar que as Exchanges no Brasil são equiparadas a instituições financeiras e, neste contexto, estabelecer protocolos de segurança e anti-fraude, como medidas de bloqueio e know your transaction (KYT) são fundamentais. Exchanges, wallets e meios de pagamento perdem centenas de milhares de reais por indenizações diante de golpes, fraudes, e crimes informáticos. Neste sentido, determinados criptoativos ligados a investimentos devem ser recomendados apenas para investidores qualificados, nos termos da resolução CVM 539/2013. As assessoria jurídica especializada em criptoativos também podem atuar na obtenção de selos de segurança ligados aos projetos de criptoativos, proporcionando maior transparência e segurança aos investidores.

Como criar uma criptomoeda em sua cidade?

O DREX, real digital, também é uma realidade e em breve estará presente no sistema financeiro brasileiro. O próprio Banco Central já anunciou que irá criar uma blockchain própria inspirada no Ethereum, com o escopo de conectar o sistema financeiro com o ambiente de finanças descentralizadas DEFI.

A tokenização, processo que envolve transferência de ativos do mundo real para blockchains, será uma realidade. A Comissão de Desenvolvimento Econômico da Câmara dos Deputados aprovou o PL 4473/23 que regulamenta a emissão de moedas sociais no Brasil, somente em Blockchains autorizadas pelo Banco Central, o que abre caminho para Prefeituras e órgãos públicos ingressarem na era da tokenização.

A aprovação de projetos desta natureza pelas entidades reguladoras também  dependerá do planejamento feito por assessoria jurídica especializada em blockchain e criptoativos, a ser desenvolvida para órgãos públicos, de modo a atingir compliance com as regras do setor.

Imóveis tokenizados e vendas de NFTs

Não há limites para o que possa ser tokenizado. No Brasil, startups já anunciam lançamento de condomínios tokenizados de casas “multipropriedade”. Trata-se da representação digital de ativos físicos. Assim, é possível por meio da tecnologia a “compra” de uma fração do imóvel, sendo que cada cota tem sua matrícula própria e podem ser negociadas através de tokens específicos e não fungíveis que asseguram, via de regra, direitos obrigacionais.

Segundo relatório do CitiGroup, espera-se que o mercado imobiliário de propriedades tokenizadas seja avaliado em US$ 1,3 trilhão até 2030. E neste ambiente, projetos sem planejamento jurídico feito por advogados especializados em criptoativos podem ser extremamente arriscados. Deste modo, a necessidade de equipe jurídica experiente para equacionar e propor as melhores estratégias para contornar desafios regulatórios ligados à temática são essenciais.

Conclusões

Como visto, estruturar uma equipe jurídica em direito das criptomoedas e meios de pagamento para o compliance do seu negócio de criptoativos, seja um Exchange, DEFI, Wallet ou OTP é essencial. A representação jurídica por advogados de criptoativos é um importante diferencial competitivo, sobretudo aumentando a segurança para todos os clientes e demais integrantes do ecossistema.

Fale conosco

Tem dúvidas ou necessita de uma avaliação do seu negócio de criptoativos Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados, Advogados de Criptoativos e Fintechs.

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.