PODCAFÉ DA TI
Aqui você encontrará um bate-papo informal entre profissionais de TI e convidados das mais diversas áreas tratando temas quentes com muito bom humor. Se você é apreciador (ou não) de um belo cafezinho, com certeza vai curtir esse bate papo. Uma forma descontraída e agradável de se informar e manter-se atualizado com as principais questões da gestão de tecnologia. Nossos hosts Gomes, Mr. Anderson e Dyogo Junqueira nos conduzem através deste podcast, sentados em torno desta mesa virtual, tentando reproduzir o prazer daquela conversa inteligente acompanhada pelo cafezinho da tarde, vez ou outra deslizando para uma mesa de bar, afinal ninguém é de ferro. Feito pra te acompanhar na estrada, no metrô na academia ou onde mais quiser nos levar, colocamos o “Pod” no seu café! Pode desfrutar, pois foi feito pra você!
PODCAFÉ DA TI
#192 - Daniel Marinho: Desafios legais da tecnologia moderna
Neste episódio do PodCafé da TI, recebemos Daniel Marinho, advogado da Peduti Advogados, para um debate incisivo sobre tecnologia e privacidade. Investigamos a responsabilidade da inteligência artificial por decisões prejudiciais, os limites éticos da coleta de dados pessoais e o papel dos algoritmos na propagação de fake news.
Também analisamos o impacto da automação no mercado de trabalho, as exigências para a regulamentação de drones e veículos autônomos, e as implicações da responsabilidade civil em acidentes com esses veículos.
Não perca essa discussão crucial e prepare-se para insights críticos. Assista agora! 🎥
Participantes:
Daniel Marinho - Advogado da Peduti Advogados
Dyogo Junqueira - CEO da ACSoftware
Guilherme Gomes - Diretor ACSoftware
Anderson Fonseca - Diretor ACSoftware
Adriano Mano - Diretor ACCyber
PodCafé da TI é um podcast da onde Mr Anderson, Guilherme Gomes e Dyogo Junqueira, recebem convidados para falar de uma forma descontraída sobre Tecnologia, Segurança e muito mais.
MÚSICA. Pode tá certo, pode tá certo.
Speaker 1:Muito bem, muito bem, muito bem. Estamos começando mais um Podcafé da TI, podcast, tecnologia e cafeína. Meu nome é Anderson Fonseca, o Mr Anderson, e o nosso departamento jurídico bloqueou a piada de advogado que teria aqui. Mas vamos que vamos.
Speaker 3:Aqui é Guilherme Gomes da Acess Software e eu ainda não fui convidado para o localizamento do meu melhor amigo.
Speaker 4:Adriano Omano da Acess Cybersec.
Speaker 2:Diogo Junqueira, CEO da Acess Software. Para nós é um prazer receber o convidado de hoje. Vou deixar ele mesmo se apresentar.
Speaker 5:Obrigado pessoal, Daniel Marinho, também advogado, que trabalha com alguns temas envolvendo tecnologia. Vamos bater um papo hoje.
Speaker 2:Sensacional. Dr Daniel conta pra gente. então. primeiro, como é que um advogado foi aí se interessar pela área de tecnologia? pros nossos ouvintes se situarem, entender um pouco da sua trajetória? Conta pra gente onde é que começou esse interesse relacionado à área de data protection, digital law, etc.
Speaker 5:É isso aí Desde novo. Eu sempre tive muita facilidade com o tema. Já tinha feito técnico em informática, já desmontando computador, aprendendo algumas noções já de lá no início né Final dos anos 90, ali Então programação também, então cheguei a pegar essa fase, pô cara você foi fazer direito.
Speaker 2:Pra quê, velho, eu tava indo.
Speaker 5:Certo, você desviou o direito De onde foi cara, mas sempre tive essa aptidão ali. Natural A família obrigou, foi foi Meu pai, ela advogado, mas nunca me pressionou não Não, não, não.
Speaker 1:Eu ent, mas nunca me pressionou.
Speaker 2:Não, eu entendo sem pressão. Você quer um carro de pressão, você quer é isso, lá continuar?
Speaker 5:morando aqui. Você quer continuar morando aqui em?
Speaker 5:casa mas eu sempre tive apetidão pelo tema, interesse desde novinho, ali já comprando revista lá na época ainda se comprava revista então ia na banca ali comprar revista importada pra saber do tema, enfim desmontando o computador, comprando software enfim, e ali comecei a me interessar pelo tema mais focado aqui no direito digital, propriedade intelectual, proteção de dados, final dos anos 2000,. Ali eu comecei a estagiar na época na área, num escritório que tinha como cliente o Google, por exemplo. Então a gente já comecei a trabalhar ali com temas, já me interessava muito pelo assunto e ali eu já me encontrei e falei assim ó, é isso aqui, por aqui, que eu quero seguir, né. E desde então é onde eu tenho dado ênfase na minha carreira.
Speaker 2:Legal, cara. Hoje, cara, quando a gente fala digital law, nós estamos falando tem muitos temas polêmicos que a gente pode entrar. Tem a inteligência artificial, tem a LGPD, que já está já falando bastante aqui. Eu acho que o que você pensa em relação especificamente a regulamentação da inteligência artificial, eu vi que a Europa já lançou aí a sua primeira ação em relação a isso. No Brasil se discute, ainda está bem prematuro, mas qual é a sua visão com relação a esse tema, cara?
Speaker 5:É um tema urgente. né Vocês viram aí que essa semana o chat de PT lançou aí uma nova atualização também Rápida pra caralho.
Speaker 5:Muito mais rápida eficiente, então isso vai trazer uma produtividade, um aumento de eficiência muito grande para várias indústrias. Então, só que isso tem também seu lado que pode vir a causar alguns danos. E aí que entra o papel do regulador de justamente tentar mitigar danos, tentar justamente aparar essas arestas. Falando especificamente de Brasil, a gente está vendo aí o que a gente chama de efeito Bruxelas. Então, como vocês comentaram, regulou lá fora, assim como foi com a LGPD, começa na Europa um movimento do tipo e o efeito Bruxelas vai espalhando ali para os demais países e aí chegou agora aqui no Brasil, né sobretudo aí como rebote aí de eleições, que também está aí na mira do ano para acontecer, enfim uma série de desdobramentos. Porém, eu ainda vejo que é necessário muito mais debate, trazer principalmente tanto academia, profissionais da atividade privada, enfim organização civil, a própria sociedade civil, para debater do que ser feita a aprovação de uma lei a toque de caixa.
Speaker 1:Você acha que a gente espera de propósito, porque assim você está falando do efeito Bruxelas, é porque existe essa tendência de primeiro surgir a regulação na Europa e depois vira. Parece que a sensação que eu tenho é que todo mundo vai esperar o texto da Europa. Os caras fazem o trabalho difícil.
Speaker 4:A sensação que eu tenho é É um pouquinho do LGPD. É a sensação que eu tenho.
Speaker 2:É de pior, já está lá rodando que é o seguinte a gente tem aqui de um lado a América, tem do outro lado aqui a Ásia, então vamos falar tem Estados Unidos, china e Europa ali no meio pra regulamentar o negócio, entendeu? Então eu acho que é o meio termo.
Speaker 1:De fato estão cumprindo o papel deles, porque eles não vão nem pro esquema nem pro outro. Vamos dar essa regulada aqui.
Speaker 2:Estão tentando então, e querendo ou não, como sociedade composta de leis são uma das mais antigas que tem né.
Speaker 5:É o regulador na Europa tem uma característica própria, né Ele costuma de fato sair na frente, ele já sai ali na frente. Enfim o efeito Bruxelas mesmo acontecendo E por um outro lado, os Estados Unidos já trazem também um cenário um pouco diferente Eles deixam o negócio correr um pouco mais sozinho.
Speaker 1:A legislação lá é um pouco mais quebrada. Vem por estados, tem toda uma. É muito diferente da nossa.
Speaker 5:Eles privilegiam muito o federalismo. Então a Califórnia avança em alguns temas, a Flórida em outros, mas existe um movimento lá também, falando aí sobretudo em proteção de dados, movimento bicameral para poder aprovar uma lei federal americana. Isso está na pauta aí também em andamento. Existe um esforço ali tanto de democratas e também dos republicanos para poder aprovar uma lei nesse sentido. Mas especificamente falando de IA, a gente olha muito mesmo isso, o pessoal espera mesmo acontecer um pouco. Lá fora o pessoal tem muito mais subsídio para aprovar. Vem uma lei muito robusta também para esse tema e nos Estados Unidos o tema anda um pouco mais solto.
Speaker 2:Eu acho que até pela união europeia eles são unidos realmente como uma união de países eles conseguem conversar de uma maneira bem mais estratégica e bem mais fluida do que outros países. Imagino. Eu entendeu Porque aqui no Brasil é pô, você falou vai trazer a sociedade. Cara, a gente viu como foi durante a LGPD, né, cara, foi uma confusão do caramba.
Speaker 3:E eles estão um pouco mais avançados que a gente no âmbito geral de organização de educação e tudo mais. Então é natural por eles serem mais velhos. Entre aspas, eles estarem um pouquinho na frente em relação a isso, porque se a gente for olhar os modelos, tudo que a gente vai olhar de modelo de educação e tudo mais a gente acaba chegando e olhando para a Europa Vem de sempre.
Speaker 5:Falando de LGPD, isso tomou aqui no Brasil por volta de 10 anos. Começou ali as primeiras audiências públicas lá em 2010. Agora, quando a gente vai falar de inteligência artificial, até pelo impacto que ela tem, que ela atinge qualquer.
Speaker 2:Exatamente, ela atinge toda e qualquer indústria, Então o negócio é muito mais rápido, mesmo E ainda assim a gente vai ficar atrasado. De toda maneira, Você acha que algum dia os robôs vão precisar de advogado? cara?
Speaker 5:É o Bovim precisar de advogado, cara É possível?
Speaker 2:tá, É bem possível, Porque esse companheiro aqui acha que daqui um pouco algum ministro aí vai mandar prender o chefe de PT.
Speaker 5:entendeu, É possível tá, não descarta a CDA, não porque algumas inteligências artificiais podem causar danos. Então se você usa ela sem muito resguardo, sem ali o double check como a gente costuma falar, né Faz fazer ali a verificação daquela informação, você pode causar algum tipo de dano. E isso já tem acontecido Nos Estados Unidos. por exemplo, um advogado, ele foi sancionado ali pela Bar Association, a OAB lá americana, porque ele basicamente pediu um documento ali no chat de PT, emitiu pra ele o material, ele copiou, colou e jogou lá, só que sem fazer o double check e tinha coisa inventada né O que a gente chama de alucinação.
Speaker 2:Eu vi esse caso alucinou pra caramba, cara. você imagina você chega no tribunal, você cadê. Eu tô representando meu cliente. Tá aqui, ó, senhor chat CPT.
Speaker 3:eu apresento meu cliente, cara é O cara, leva um pendrive, entendeu.
Speaker 2:Não, não, não Tá aqui, tá no meu celular. Vou perguntar pro meu cliente. Você vai fazer uma pergunta, porra.
Speaker 1:É, mas vamos lá. Entendeu, Falando em chat, GPT dá pra fazer exatamente isso né, eu sei que dá Dá pra literalmente perguntar pra ele.
Speaker 2:Hoje eu vou te falar. Há pouco tempo que eu tive livre. Hoje eu só brinquei com quatro homens aí. Né For homni, é muito rápido.
Speaker 1:É impressionante. Bati um papo com ele hoje também.
Speaker 5:É assustador É muito rápido O negócio é um absurdo. E agora com outras funcionalidades.
Speaker 2:Vídeo, imagem enfim Alguém de vocês mandou na tela ensinando matemática Rapaz não precisa ensinar física.
Speaker 3:Eu fiz no Instagram hoje isso Você viu, você queriou lá no Instagram, cara, eu fiquei.
Speaker 2:Não, eu nunca mais vou chegar. na verdade, eu já tinha ficado assustado.
Speaker 3:E aí quando eu vi o resto de um monte de coisa. que Velho o cara olhar um triângulo e falar não você faz isso, isso Cara o que você
Speaker 4:tá fazendo Porra É muito fluidez, né cara.
Speaker 2:Mas agora, falando sério, até que ponto? e isso é uma pergunta pertinente, porque vai acontecer, sabemos que todos erram e a inteligência artificial em algum momento vai errar e vai acontecer um incidente. Até que ponto a gente pode responsabilizar a inteligência artificial para um caso, um incidente de um carro autônomo, por exemplo, O projeto de lei em andamento prevê que o uso da inteligência artificial pode comportar alguns riscos.
Speaker 5:Então, quando esse risco e a gente vai começar a falar um pouquinho de responsabilidade civil?
Speaker 2:também Vamos falar de civil e criminal. Como é que vai ser essa questão?
Speaker 5:Matou.
Speaker 4:O amigo do mano ali Decidiu.
Speaker 2:Chegou lá, um corintiano estava atravessando, olhou para os lados e pô atropelou.
Speaker 5:É quando essa inteligência artificial puder. O corintiano é GPT atropelou.
Speaker 1:Quando essa.
Speaker 5:IA puder causar riscos excessivamente elevados. A gente entra aí no campo da teoria do direito de responsabilidade civil objetivo. Então a responsabilidade seria ali no caso né daquele fabricante daquele carro, por exemplo. A responsabilidade seria ali no caso daquele fabricante daquele carro, por exemplo, até porque ele vai se valer do ganho econômico, do ganho financeiro, de toda a receita que ele vai obter com relação a isso. E sem dúvida vai existir ali uma tese de defesa dizendo olha, na verdade aqui eu terceirizei a produção aqui do meu software, da minha IA, para uma empresa contratada.
Speaker 5:Mas não, então, esse lado que ainda não está fechado ali no projeto de lei, ele vem levando em consideração que se for um risco excessivamente elevado, que pode causar risco a direitos fundamentais, direitos humanos, então você teria ali um risco objetivo, o que isso quer dizer O dano ali acarretado. Você bastaria entrar com uma ação judicial, comprovar a ligação, o que a gente chama de nexo causal. Então, comprovando esse nexo causal do fato ali acontecido, o fato ocorrido com o dano, vinculando essas partes, você ali imputaria essa responsabilidade ao fabricante, a quem está dispondo daquele serviço ou produto no mercado.
Speaker 2:Então vamos lá na prática. Então o Tesla vai na ZL não tem placa direito. O corintiano olha pro lado. Atropelou o corintiano, matou o corintiano. Beleza, família do corintiano processou a Tesla. A Tesla vai paga lá. Não é problema pra eles pagar. Tem dinheiro pra caramba, ok, tem o dano reputacional aí também né É faz um piar isso aí vai, vai ter que lidar com essa questão, etc.
Speaker 2:Mas ainda tem a questão de quem vai preso. Alguém vai preso nessa situação dessa porque esse amigo aqui quer que prenda o chat de APT, quer que prenda a inteligência artificial até explicar, contextualizar ele.
Speaker 4:Eu falei assim a gente teve uma conversa ontem quente sobre isso eu acredito que uma inteligência artificial poderia ser presa.
Speaker 1:o que eu quero dizer com isso? sofrer realmente sanções judiciais De 12 meses de cadeia De 12. Essa inteligência artificial se provou não competente, por exemplo, em reconhecimento facial, então ela está condenada a não ser usado isso em aplicações XYZ. Eu acho que um juiz pode chegar a decretar essa prisão de uma funcionalidade, não vocês.
Speaker 2:A OpenAI é uma empresa, vão surgir outras empresas de IA É não estamos fazendo.
Speaker 1:Essa empresa de IA aqui essa IA aqui não pode atuar nesse mercado e acabou. Eu acho que isso vai acontecer.
Speaker 5:Essa é uma lógica parecida no que acontece ali na sistemática da própria LGPD, por exemplo, que é onde a IA também vai beber muito na fonte. Então, se você trata, processa algum dado que possa causar algum risco relevante, caso você não atenda as sanções, como colocado, aquilo ali pode acarretar judicialmente. se alguém entrar com alguma ação judicial na interrupção justamente daquele processamento daquele dado, isso poderia perfeitamente ser também acolhido para o uso da inteligência artificial.
Speaker 5:O que é interessante falar em termos de criminal aqui e também de responsabilidade civil, é que você tem também que equalizar um pouco a proteção ao desenvolvedor também, porque a pessoa ali que desenvolve faz o produto ela vai se sentir quase que ali desincentivada a poder justamente desenvolver, porque ela não vai ter incentivo e segurança jurídica pra ela poder desenvolver um produto útil.
Speaker 2:É onde eu tô querendo chegar. Pô, ok, shit happens, aconteceu Alguém vai preso, né vai ser quem. Vai ser o cara que escreveu aquela linha de código especificamente, tem como tá, vai saber que foi a linha especificamente que deu errado? aí vai preso quem? O responsável pela empresa, pela penal jurídica? se for preso alguém, ah, não, não vai ter gente prendendo ninguém, não sei. Ou vai ser aquele desenvolvedor que fez aquela linha específica, que tem um erro, etc. Então assim, essa é a dúvida que realmente eu tenho e não sei se alguém sabe responder.
Speaker 5:É em meu ver vai acarretar muito na preparação da empresa de anteriormente ao lançamento no mercado desse produto de inteligência artificial. Foi o que a gente estava comentando aqui. Tem a OpenAI, que tem a Microsoft ali por trás, uma empresa bilionária, uma das maiores do mundo, que injeta muitos recursos financeiros, mas nem toda a IA, e a gente vai começar a ver um boom também de IAs, de startups ou seja empresas menores que não tem todo esse capital para poder aportar ali, naquele que a gente chama de segurança, de trust and safety, ser habilitado ou não para fazer uma coisa ou outra.
Speaker 1:E se fizer uma coisa que não era habilitada, eu acho que deveria sofrer essa situação. Eu prevejo esse tipo de situação.
Speaker 2:A solução econômica e de limitação da tecnologia. Eu já entendi que isso é uma questão óbvia vai ter em algum momento Criminal O negócio assim cara. Teve ali o IA resolveu não viu, identificou uma falha gravíssima nesse caso Tinha uma passeata acontecendo, não estava previsto que tinha uma passeata. Ela falhou, não viu, estava todo mundo vestido de branco e ela aprou a falha da luz, sei lá o que e atropelou cinco, seis pessoas ali nessa passeata E aí Foi um incidente que causou várias mortes.
Speaker 5:Se fosse um cara ou uma pessoa dirigindo, ele seria responsabilizado ali, sem dúvida, sem dúvida, e nesse caso Nesse caso eu entendo né E ainda é um tanto acontecido pra gente poder falar isso né O projeto tá em andamento, mas a empresa precisa apresentar evidências de que visualizou esse tipo de situação, essas situações sobretudo no mercado de atuação, por exemplo a Uber e outras empresas que estão desenvolvendo carros autônomos, por exemplo. Elas precisam prever esse tipo de situação. Isso não é um evento adverso ou alguma coisa muito inatingível. Então, se você não comprovar que você justamente envidou esforços financeiros para poder se precaver com relação a isso, eu vejo claramente que poderia acarretar um inquérito criminal também contra o presidente, o CEO, enfim, aquele departamento ali responsável.
Speaker 2:Então, até aí a galera tem que começar a se preocupar um pouco.
Speaker 5:É o que a gente chama de governança de inteligência artificial.
Speaker 2:Tem que ter governança e tem que pensar. A análise de risco tem que ser muito bem feita.
Speaker 1:E outra coisa, como você mencionou agora há pouco, a inteligência social alucina. Então até nós termos uma versão que seja livre de alucinar ainda vai levar bastante tempo Porque, diversão em diversão de um modelo para outro, são feitas correções por seres humanos mesmo. Eles vão lá e analisam decisões que foram tomadas e vão fazendo o que eles chamam de toning, afinando ali essa capacidade da inteligência de tomar decisões e torna isso cada vez mais apurado. entendeu?
Speaker 4:Você sabe que a Amy Webb tem um livro, the Big Nine, e ela traz essa preocupação Com quem enviesa, quem programa, quais as crenças, o que está por trás da criação dessa pessoa que pode direcionar o comportamento da inteligência artificial. Isso é super relevante. Mas eu queria dar uma invertida nesse jogo. A gente falou bastante da implicação disso para as empresas, para o nosso dia a dia como cidadãos, dentro do seu campo de atuação hoje, como é que vocês têm utilizado inteligência artificial? Você hoje está num super escritório, quase 50 anos de tradição. como é que vocês têm, se não utilizado, visualizado o uso de inteligência artificial?
Speaker 5:Para o advogado tem dado uma boa mexida no mercado e é muito interessante como o advogado vai se valer dessas ferramentas para poder ser cada vez mais eficiente.
Speaker 5:Então a gente usa para justamente às vezes refinar algum parágrafo, porque a gente vive muito no mundo do juridiquês, falando muito entre pares também E às vezes para traduzir isso para o cliente, que hoje ele não está muito preocupado em uma linguagem rebuscada, mas sim, na verdade, o advogado tem que se fazer entender. Então eu mesmo já utilizei pra melhorar às vezes um parágrafo que eu tava parado ali não conseguia sair daquilo, e o ChatPT, após o meu input, meu prompt, me devolveu um texto que tava um pouco mais claro. Então, me trazendo essa eficiência na comunicação.
Speaker 2:Então, pra você explicar pro cliente o que tava ali, com aquelas linhas complicadas você usou, ele É interessantíssimo, já cheguei a usar pra isso. Rapaz, chega lá e fala, explica isso aqui pra um leigo, como é que.
Speaker 5:Exatamente, vai encontrar palavras e é muito bom É porque você, justamente, sair escrevendo é o mais fácil, né Escrever 10 páginas, 50 páginas de um assunto é fácil O difícil é você, é fácil pra você velho.
Speaker 2:Eu te falo que nunca faço Pro advogado, né, mas o difícil é você refinar aquilo e deixar o essencial de maneira concatenada.
Speaker 5:Fazer pro português É é.
Speaker 1:Essa coisa bacana. Até um comentário que assim eu sou um apaixonado por Asimov. Né Toda a literatura do Asimov, inclusive, inspira muito do que a gente vê em inteligência artificial e robótica. Nós estamos vivendo exatamente o início dos anos que os livros de Asimov descrevem, e um dos textos mais famosos dele, base de tudo são justamente três leis, são as chamadas três leis da robótica, que eu vou até citar aqui que a lei número um é um robô não pode ferir um ser humano ou permitir que um ser humano sofra algum mal. A lei número dois Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei. E a terceira é um robô deve proteger a sua própria existência desde que não entre em conflito com as leis anteriores.
Speaker 1:Então, assim, cara, se você parar para pensar inteligência artificial, ela trabalha em cima de textos e orientações, em leis mesmo, né? Então, na prática, um robô que já é uma realidade. O que ele tá fazendo é executar leis o tempo inteiro, entendeu? E assim a importância jurídica do que vem adiante é essencial, é um negócio.
Speaker 5:Isso é super importante também que você comentou, porque foi um paralelo bem interessante. eu Isso é super importante também, o que você comentou, porque foi um paralelo bem interessante, eu não tinha pensado nisso e se ele está executando leis, que essas leis sejam claras e diretas e sem contradição. Então é importante que o próprio comando, o prompt ali dado, seja muito interessante e essas diretrizes também trazidas também precisam ser claras e que não entrem em contradição, se não acontece justamente a alucinação ali né que a gente já tem presenciado.
Speaker 1:Dessa situação, até pegando um exemplo que o Diogo deu que me fez lembrar do próprio lembrei do Assimóvel, por causa do exemplo que o Diogo deu que no Eu Robô o que acontece. Um robô ele toma a decisão de salvar a pessoa. Tava num acidente, tinha lá um carro afundando na água e tinha uma criança e o adulto. E o robô olha não, quem tem chance de sobrevivência é o adulto.
Speaker 1:Ele vai salvar o adulto e deixa a criança afogada Estatisticamente, Estatisticamente, E fala assim cara essa decisão, o ser humano não tomaria essa decisão, entendeu? E aí entra uma série de questões morais e éticas e tal E coisas que uma máquina nunca vai poder fazer da mesma forma.
Speaker 5:É, tem um livro muito legal. É um jurista americano chamado Michael Sandel, ele tem um programa em Harvard e um livro também com várias palestras chamado Justiça, e ele traz essas problemáticas. Acredito, eu até que ele vai ter que atualizar o livro agora pra poder prever essa questão envolvendo inteligência artificial, por exemplo, porque um dos casos ali que ele traz é justamente o caso do trem que sai do eixo. Justamente pode atingir duas pessoas, ou pode atingir uma com mais idade a outra com menos idade é sensacional é sensacional pra
Speaker 2:caralho e vejo isso perfeitamente sendo aplicado agora E tem muita gente que utiliza esse tipo de teste até em teste RH. Né Qual seria a sua decisão, cara Então?
Speaker 5:É aí que começa a complicar, é aí que começa a questão de moral e ética e etc.
Speaker 2:Né cara, sim, e quando você leva pra esse campo né utilizando a IA e o que ela pode tomar de decisão. Aí eu entendo um pouco das preocupações do Anderson.
Speaker 4:Claro que não vai acabar antes, não vai ser amanhã ele o cara acha que não vai acabar todo dia.
Speaker 2:a gente vive com isso aí, né Gomes, todo dia ele fala não é amanhã, então, mas ele realmente acha que as marcas vão dominar o mundo realmente acha que as máquinas vão dominar o mundo?
Speaker 4:Eu entendi. você aproveita todo dia como se fosse o último.
Speaker 1:É exato, É uma teoria, isso é fato.
Speaker 3:E aí ele fica indeciso entre inteligência artificial, ET e alguma outra dominação de alguma outra coisa que está sempre entre essas três coisas entendeu.
Speaker 1:Eu não vou dar spoiler, não, mas está tudo ligado.
Speaker 2:Outro campo que é interessante que a gente pode comentar você tá se falando bastante de identificação facial. Londres hoje tem sei lá mais câmeras do que em qualquer outro lugar no mundo. Então é extremamente monitorada. E a gente vai pra uma questão que muita gente aqui fica se sentindo no verdadeiro Big Brother né Até onde você acha que vale a pena que se pode monitorar a sociedade em nome da segurança, né A gente tem alguns casos de, por exemplo, a PM não querer colocar uma simples câmera ali porque achar que ali está invadindo o direito tentando monitorar a privacidade. Enfim, tem uma série. É um assunto extremamente polêmico. Qual é o seu pensamento com relação a esses limites entre privacidade e monitoramento para a questão de segurança?
Speaker 5:É isso aí, é o que a gente no direito chama de hard case. Né, Então, assim não tem uma resposta fácil, né Você precisa ponderar os interesses ali, os princípios ali envolvidos. Esse é um tema que sem dúvida voltou muito a pauta. Né, Voltando um pouquinho aqui atrás, depois do 11 de setembro, você viu que várias liberdades civis foram flexionadas por conta de tudo que aconteceu, que todo mundo conhece enfim. Mais recentemente também teve o escândalo, por volta de 10 anos atrás, com o Edward Snowden, também nos Estados Unidos, a NSA também ali fiscalizando o país como um todo e descobriu até mesmo espionagem em outros países. E eu, por exemplo, que sou lá do Rio de Janeiro, Copacabana, por exemplo, é um bairro que é repleto de câmeras de identificação com coleta dessas informações, E o que acontece na prática é que a pessoa às vezes está andando na praia, é confundida com uma outra pessoa ou tem um mandado de prisão ali em aberto.
Speaker 5:E já tem acontecido, e já aconteceu, inclusive acho que, se eu não me engano, um turista argentino que aquele mandado de prisão ali já tinha até né, já não tava mais em vigência, né.
Speaker 2:E ele foi abordado, direcionado.
Speaker 5:Isso pode causar uma série de problemas e que também leva à questão dos vieses ali né envolvidos Geralmente essas soluções né de coleta de dados. Nesse sentido elas são muito feitas para um determinado espectro da sociedade, o cara branco ali do Vale do Silício ou o cara da Faria Lima, o cara ali do Leblon no Rio de Janeiro. Então isso pode acarretar uma série de problemas E quem que vai pagar depois dessa conta o prejuízo que isso aconteceu? Realmente não é uma solução fácil. Eu ainda vejo que precisa ter vários freios e contrapesos ali de verificações posteriores à utilização dessa ferramenta.
Speaker 2:É que tem, foi até comprovado, né que tem. A inteligência artificial foi treinada, tinha sido treinada para uma base de homens brancos, etc. Então assim automaticamente ela não tinha a capacidade a aprendizado de identificar um homem negro que estava lá, etc. E automaticamente tomava a decisão incorreta. Então eu acho que, pessoal, não é que eu sou contra o monitoramento, mas é muito delicado como eles já estão aplicando essas questões no dia a dia. Né, essa é a minha dúvida. E quando se trata de governo, você processar o governo é impossível. Né, cara, você não tem pra onde correr.
Speaker 1:Eu posso citar aqui um outro uso pra isso Chegando no Brasil, sabe que chegando lá na alfândega, agora você passa, tem que tirar a boné, tem que tirar óculos, tirar o que for. A câmera tá pegando o seu rosto, ela te identifica facilmente. Eu cheguei a primeira vez que eu cheguei, já depois disso o policial virou pra mim. senhor Anderson, pode me acompanhar, por favor?
Speaker 2:Ele já sabe que é você, Na verdade eu Estádio de futebol. estádio de futebol eu entro no estádio do maior time do centro-oeste, o Goiás, então automaticamente só entro lá, só com a minha face teve um caso não lembro, no nordeste do país que um indivíduo negro ele foi lá não reconhecido- mal identificado exatamente.
Speaker 5:Prepararam inclusive todo o projeto por causa desse negócio isso são casos aí a gente sabe da realidade também do cenário do futebol, com brigas que podem acarretar em mortes, enfim danos aí as pessoas. Então é uma ferramenta que é bem vinda ali pra poder garantir também a segurança. No entanto você não pode só simplesmente implementá-la sem mitigar esses riscos. Pode acontecer alguns cenários de uma pessoa ser barrada sem fundamento, enfim isso tem sido aplicado. Tem essa previsão a Lei Geral de Proteção de Dados, né tem uma previsão também pra ser aplicada em estádios, clubes de futebol também vem valendo dessas informações pra também sócio-torcedor. Então é um cenário aqui, né especificamente falando, muito importante pro cenário nacional.
Speaker 5:Né o Brasil, país aí com mercado consumidor de futebol absurdo, né enfim a gente tá sempre olhando pra isso também. Mas não pode ser feito né à torta e direito, né a gente precisa né justamente implementar algumas medidas de salvaguarda ali pra poder resguardar essas violações. E esse é o papel basicamente do advogado, né ele precisa estar aparando essas arestas para poder implementar. A tecnologia é muito bem-vinda, no entanto a gente só precisa. Todo mundo aqui já viu Black Mirror, sabe.
Speaker 4:Como é que isso?
Speaker 5:pode ocasionar ali, e é maravilhoso a gente acompanhar a evolução dessas tecnologias. Elas só precisam ter essas mitigações implementadas de maneira adequada.
Speaker 2:Legal. A gente teve um debate que muitas vezes até foi Uns haters veio no YouTube comentar que muitas vezes a situação tem que acontecer para a lei vir. Tipo assim primeiro veio o acidente do trânsito, depois vinha as leis de trânsito para ir prevendo.
Speaker 4:Sinto de segurança.
Speaker 2:Exato. Então assim você acha que precisa acontecer algo realmente, e aí a gente vamos regulamentar ou a gente tem que pensar de regulamentar antes de algo acontecer, entendeu?
Speaker 5:Isso classicamente acontece no direito, no ordenamento jurídico Primeiro a situação se vira um fato né Traz ali, uma realidade fática, se torna um problema pra em seguida vir a regulamentação. Isso acontece um exemplo clássico e recente que a gente pode usar foi a própria Uber. A Uber, quando começou ali em São Francisco nos Estados Unidos, taxistas lá e isso depois aqui no Brasil também se repetiu começaram a se revoltar com relação ao uso dessa tecnologia. Começou a acontecer esse movimento de proibição primeiro, para depois vir a regulamentação. Então isso é clássico de acontecer no direito. O direito não consegue acompanhar a evolução da tecnologia, até porque o mercado é muito mais dinâmico. A gente está vendo aí o Chet Tipiti indo para a quarta versão, como a gente falou, e sequer ainda tem um projeto de lei aprovado, uma legislação aprovada, enquanto que eles estão avançando. Então é muito difícil a gente conseguir regulamentar de maneira prévia qualquer tipo de nova tecnologia.
Speaker 2:Tá, entendo, mas assim por que tem que ser tão. depois Eu vou te dar um exemplo desse tão depois A lei Joca.
Speaker 4:A gente teve vários casos, foi até reportagem de animais de pets que acabaram morrendo por conta dos cuidados que tinham no envio de um lugar a outro. Agora teve que acontecer de novo pra ir entrar a regulação, que não é uma situação nova né.
Speaker 1:Não é, mas nós estamos vivendo tempos novos. Isso é importante. A questão de você hoje ter rede social, espalhar uma notícia dessa você conseguir uma mobilização social muito mais facilmente sem apoio de mídia, sem apoio de ninguém. Isso também leva a consequências diferentes e eu acho que isso influencia muito os tempos que nós estamos vivendo agora.
Speaker 5:Não existe mais esse filtro dos meios de comunicação. Você simplesmente visualizou alguma situação em que você ficou indignado e você consegue postar. Isso é muito o caso do cachorro Joca, né que foi no aeroporto clássico de acontecer.
Speaker 2:Eu mesmo já tinha visto vários desses também, né E no passado teve a própria lei.
Speaker 5:Carolina Dickmann também, que também não foi uma situação nova. Exatamente. Então isso acontece basicamente nessa linha. Teve uma repercussão para além do esperado. Aí sim o legislador se preocupa em regulamentar. Por quê, cara Por?
Speaker 2:quê? Por que é assim, né Depende muito do Congresso, né É o seguinte cara.
Speaker 1:Vamos lá também. né? Eu vivo nessa minha matemática mental de o que vem a seguir. Isso é meu pessoal, e eu tenho também uma coisa de não estar nunca satisfeito com o status quo. Eu sempre quero encontrar uma outra forma de fazer a mesma coisa. Isso me torna uma pessoa muito criativa.
Speaker 1:Mas por outro lado tem gente que fala assim cara, esse cara é alienado, esse cara está tendo ideias aqui que não fazem sentido. Então eu acho que se alguém entrar nessa prática de ficar calculando o que pode acontecer e trazer isso pra mesa, ele vai ser ridicularizado também né nem questão de ridicularizado.
Speaker 3:Imagina a quantidade de leis que a gente teria pra gente às vezes nunca ser usada. E aí, se a gente tem alguns casos, depois a lei, a gente consegue legislar em cima de coisas em situações factíveis em vez de possibilidades de talvez algum dia acontecer alguma coisa. Minority Report.
Speaker 1:Você está comentando aqui que outra situação legal que é Minority Report, que era uma inteligência que conseguia prever coisas que iriam acontecer um crime que ainda não ia acontecer.
Speaker 2:Você sabe que isso está um pouco no nosso comportamento. Era o quê? Era uma inteligência que conseguia prever coisas que iriam acontecer Um crime que ainda não ia acontecer.
Speaker 4:Cara, Um dos melhores times Você sabe que isso está um pouco no nosso comportamento, na nossa vida executiva, quando a gente está numa troca com o time. Isso já aconteceu, isso é fato para eu levar para frente ou isso é só hipótese? Se for hipótese, vamos deixar em segundo plano. Então a gente já se comporta um pouco assim. E eu queria voltar no que o Mr Anderson trouxe sobre os novos tempos, as redes sociais. Nesse momento discute-se muito a regulação das redes sociais. O que você acha de todo esse contexto?
Speaker 5:É super importante ter essa questão da verificação também das informações. Hoje a gente está passando por toda essa tragédia no Rio Grande do Sul, por exemplo, e a gente não sabe eu que estou aqui, distante de lá, não sei se tudo que é veiculado ali na mídia enfim e também nas redes sociais é de fato verdade. É complicado também por conta da questão da própria regulamentação dos meios de comunicação. Né Existe essa questão da liberdade de expressão dos meios de comunicação, né Existe essa questão da liberdade de expressão. A gente tem acompanhado muito aí também, todo esse embate aí com o ministro do SDF, envolvendo o Elon Musk Exatamente.
Speaker 2:Isso tá na pauta do dia e tá repercutindo no mundo todo E é uma questão assim até onde vai o seu direito de divulgar algo ou não? E alguém querer falar que pode ou não ser divulgado? O que você pensa com relação a isso e os temas eleições chegando?
Speaker 5:Eleições é primordial. Os grandes players, os agentes de mercado de meios de comunicação a gente está falando de WhatsApp, Telegram eles têm tomado iniciativas para precaver com relação a divulgação, compartilhamento de informações ali, e o Brasil, uma das maiores democracias do mundo, está justamente no olho desse furacão. Então logo mais a gente vai ter eleições de novo. O TSE também, o Tribunal Superior Eleitoral, tem tomado medidas com relação a isso, já se antecipando, justamente por conta do que aconteceu no cenário anterior no passado, em eleições passadas. Mas no entanto a nova tecnologia está sempre aí em implementação. A gente não sabe, daqui a pouco pode surgir alguma nova tecnologia e passa a ser primordial. Quase que 90 e tantos por cento da população usa o WhatsApp hoje para se comunicar como meio de informação. Então isso é muito importante, até para evitar a divulgação de informações falsas pra terceiros e convencer pessoas ali que aquela realidade.
Speaker 4:Você me deu uma pancada agora Por quê? Porque eu já fui lá na frente, cara, já deu uma canseira rede social, eleição, e aquilo A contra o B, não eu não ativo.
Speaker 2:cara, Eu tinha tristeza. Eu nem entro nesse tipo de discussão. Você não tem noção.
Speaker 1:Deixa eu botar um pouco mais de gasolina nessa questão. Vamos lá, então Vamos lá.
Speaker 2:Em 1950, o Alan Turing Foi longe pra cá É não O Alan Turing, ele viveu muito É cabo nas pirâmides do Egito, então a gente tá no fundo no-transcript.
Speaker 1:Você chega ali e você não sabe identificar se foi uma pessoa que falou ou ela pode até imitar uma outra pessoa, pegar a voz de alguém, pegar a imagem de alguém. Hoje, se uma máquina quiser criar uma rede social botando foto dessa pessoa desde a infância até a vida adulta, criar toda uma vida já consegue fazer, e se alguém for avaliar, não vai conseguir ser capaz de dizer que aquilo foi uma máquina que fez. Então. Assim, cara, a gente está numa situação em que ok, anderson, mas as máquinas não vão tomar decisões e vão fazer isso e tal. Acredito que até algum momento pode ser que uma máquina faça isso, que adote algum viés e queira interferir em alguma coisa, beleza, mas nesse momento pessoas estão usando máquinas pra fazer isso, o que é mais perigoso ainda, que são viés muito mais declarados né É, eu estou mentalizando aquela ferramenta a seu interesse, né pra poder justamente chegar no seu próprio objetivo.
Speaker 5:Então até um próprio engenheiro do Google.
Speaker 4:Ah, eu peguei essa matéria agora. Agora Esse engenheiro foi demitido. Né Foi demitido porque ele falou que estava criando algo que Exato.
Speaker 5:Então é porque, justamente, essa impressão passa, justamente porque está muito similar ao que Ele foi demitido por quê?
Speaker 4:Porque ele estava criando uma interi. Ah, que é a matéria.
Speaker 2:Ele falou que a máquina era Tava criando emoções.
Speaker 4:Emoções. Imagina que loucura isso, porque isso é o nosso diferencial hoje né, Ele já tava confundindo as coisas.
Speaker 1:Hoje eu tava conversando com o chat GPT e bati um papo com ele e falei Aí, você pediu o chat GPT em casamento.
Speaker 2:Não, não Perdeu. Liz. Já passou o nome do, já apaixonou no chat GPT.
Speaker 3:Cara, que hora dessa velho, não, não, não, diogo, ele colocou a voz da Liz no chat GPT pra conversar com ela na madrugada enquanto a.
Speaker 2:Liz tá dormindo tava chegando, tava no carro. Agora olha só para com essa mania, não sei o que não respondeu. Aí ele falou entendi, agora é o chat GPT, tudo faz sentido. Eu perguntei o chat GPT.
Speaker 1:Cara, tudo faz sentido. Faz sentido. Eu perguntei pro chat GPT.
Speaker 1:Como é que tá sendo a experiência de tá conversando agora fluentemente com humanos. Ele falou ah, eu estou gostando muito, tá sendo muito legal, e tal Aí. eu falei ué, você tá gostando, você tem sentimento, você tem, você teve, você tá como é que é isso? O teu algoritmo te incentiva a absorver mais dados e você está chamando isso de gostar. O que é esse gostar? Me explica. E ele começou a explicar Não é importante para o meu algoritmo receber mais informação, coletar mais experiência, entendeu? E quando eu digo que eu estou gostando, na verdade eu estou buscando uma forma de comunicação para que você humano tenha a percepção de que está sendo positivo pra mim.
Speaker 2:Em outras palavras, ele falou assim tô querendo te agradar, brother. Começou um debate Tô querendo te agradar, brother, tô te alugando, entendeu.
Speaker 1:Mas a ideia dele de imitar uma sensação humana entendeu De declarar que ele está tendo um sentimento já está implícito no código dele. Já está fazendo.
Speaker 5:Até porque o ser humano tem muito mais empatia por aquilo que é mais próximo a ele. Então ele vai começar a se ver ali. A variação de tom de voz, Exatamente.
Speaker 1:O que o Gic está pensando Até as pessoas normalmente se identificam com pessoas.
Speaker 2:Inclusive vou te falar, eu utilizo muito dessa técnica. Tem um livro que fala disso. Inclusive já recomendei pra muitas pessoas de imitar a pessoa que tá na sua frente. Sim, sim O comportamento espelho Exato o comportamento espelho.
Speaker 5:Então, se a pessoa age de um jeito, você tem que agir do jeito tom de voz.
Speaker 2:Existem livros de imunização, por exemplo, como fazer a pessoa a base dele e fala bastante isso. Então assim cara, logicamente a IA vai fazer a mesma coisa e vai te conhecer a personalidade entendeu.
Speaker 5:E essa nova versão do Chat Tipiti ela também consegue. Você pode solicitar olha, quero agora uma voz um pouco mais empática, quero uma voz mais didamática. Então isso é possível.
Speaker 1:E até essa brincadeira que você fala assim vai se apaixonar e tal, eu não mas tem gente que pode embarcar.
Speaker 2:Se tem gente, é você se tem alguém que pode apaixonar em sete dias o cara cheio de coisa pra fazer, cheio de pepino pra resolver, foi trocar ideia com o JTPT. Hoje você já tá gostando, você tem sentimento. Já tá falando de sentimento com o JTPT no primeiro dia. Nasceu ontem. Ai meu Deus, vai passar, gomes, você já viu. Ela tá falando de sentimento que eu já vi no primeiro dia nasceu ontem. Ai, meu Deus, gomes, você já viu que ele passava a noite inteira no telefone? não, ele vai passar agora falando sozinho pra deixar a Liz trabalhar, pelo menos né aquele filme.
Speaker 1:Não sei se vocês já viram Her Her é bom que é exatamente isso até o choque dele quando ele se dá conta de que ela é uma máquina que tá conversando com várias pessoas ao mesmo tempo.
Speaker 5:É um negócio muito legal, é fica, fica tipo não se decepcione É daqui a pouco a gente vai começar a ver matérias do tipo né pessoas que Ele vai tá aí.
Speaker 1:É mas é o que acontece. Estamos num momento muito curioso da humanidade onde tudo aquilo que a gente viu como ficção até esse momento, tudo aquilo que a gente viu como ficção até esse momento, cara, serve como referência do que vem adiante de forma muito real. Isso é um negócio muito louco, porque quando eu paro para pensar nas leis da robótica aqui, do Asimov, com certeza elas vão influenciar as leis reais que vão reger o comportamento, porque um cara lá, muitos anos atrás já estava queimando a cabeça com isso. O Turing, lá nos anos 50, já estava pensando no problema que nós estamos diante dele agora. Então, assim, essas literaturas antigas, elas são muito importantes nesse momento Não, e é muito importante beber dessa fonte.
Speaker 5:Como você bem disse, esses problemas são antigos, porém em novos formatos com novas tecnologias. Então o cara lá, o Turing, que tava batendo cabeça 50 anos atrás, assim como os gregos também, romanos também, e que hoje pautam todo o direito, o ordenamento jurídico muito inspirado no direito romano, por exemplo, isso tudo bebeu nessa fonte. Então sem dúvida tem que olhar um pouquinho pra trás pra também poder regulamentar o que vem à frente cara ainda, eu tô preocupado com a eleição porque eu não tenho dúvida que vai ter problema, vai dar vai dar não tenho dúvida que vai ter problema no país paralisado, política que virou time de futebol e as tecnologias estão cada vez mais avançadas, igual o Mr Nascis falou.
Speaker 2:então vai ter questão de deepfake, vai ter que tentar identificar o que é fato e o que não é fato. E aí eu fico pensando nas máximas, nos juízes e etc. Espalhou uma fake news aí que viralizou. O que eles vão fazer? Eles vão derrubar a rede Porque vai ser muito difícil assim a gente, do ponto de vista da tecnologia, explicar às vezes pra um legislador, pra um juiz é muito difícil saber a origem. Sim, é quase impossível saber a origem.
Speaker 5:A derrubada de uma rede é um negócio muito drástico.
Speaker 2:É drástico, mas eu não duvido que alguém meta a canetada A gente teve no Brasil experiências no passado com a derrubada do Telegram, o teve no Brasil experiências no passado com a derrubada do Telegram, o TikTok.
Speaker 4:Agora, nesse momento, passando, por isso nos.
Speaker 2:Estados Unidos. Lá é uma questão ainda de viés muito mais Exato Diplomático de que é outra coisa Segurança, né Segurança enfim, É outro tema Até o esquema que eles chegaram.
Speaker 4:Vocês vendem, É uma loucura É exatamente o exemplo que você deu.
Speaker 2:É então aí esse lance aqui. Chegando nessa situação, você acha que pode chegar um legislador não viralizou demais. Derruba esse negócio aqui porque vai atrapalhar a eleição.
Speaker 5:Na minha visão, isso seria uma medida desproporcional, enfim, que acaba prejudicando o todo por conta de uma exceção, então a exceção não pode justamente virar a regra. Então vejo que a solução para isso, os juízes que vão tomar à frente esse tipo de decisão, vão ter que tomar decisões muito ponderadas, levando vários interesses em consideração.
Speaker 3:As próprias redes sociais vão ter que começar a criar mecanismos para isso. Eu acho que o X já faz isso em um certo nível. De Quando alguém tuita alguma informação, de quando alguém twita alguma informação, a própria comunidade pode comentar com artigos, não fomentar com artigos e tudo mais. Aquela postagem ela não cai, mas ela fica flagueada, com peraí talvez você possa estar mentindo.
Speaker 3:Isso. Eu não sei o que vocês acham daí, mas parece talvez uma possibilidade de até envergonhar quem está transmitindo essa fake news. Cara, olha, aqui está todo mundo dizendo o que você está falando é mentira. Talvez seja uma das possibilidades da gente conseguir diminuir o impacto de uma fake news, mostrando para a mesma pessoa que viu aquela mensagem que aquilo lá a gente tem um outro cenário, uma outra visão para aquela mesma coisa. Não sei se seja a saída, mas eu acho que vai ter que ser uma preocupação das próprias redes sociais pensar em alguma forma de fazer isso.
Speaker 4:Sabe o que eu vejo, gomes, que eu trago um ditado que me ensinaram dentro de casa que uma mentira contada, muitas vezes ela se torna uma verdade. E dando um clinch, pegando o gancho com o que o Diogo comentou, que hoje o fanatismo beira o exemplo do futebol, o pessoal não quer ver cara Aquilo, é verdade, pra mim Não adianta falar pro mano que o Corinthians é Enfim, não adianta.
Speaker 2:Calma, entende, não vou nem falar.
Speaker 1:E outra coisa, e outra coisa.
Speaker 2:Vamos lá Nós já vimos, não adianta falar.
Speaker 1:Nós já vimos de pertinho o efeito das fake news, só em forma de mensagem de WhatsApp, imagina agora em áudio e vídeo. Em áudio e vídeo exato É a minha preocupação, cara. É o deepfake, né É o deepfake saindo.
Speaker 2:Olha, aqui é ele é ele?
Speaker 3:É ele falando aqui?
Speaker 2:ó Tem uma mensagem aqui de algum Ele falou que dá pra É, ele tô vendo o vídeo E a quantidade vai ser tão grande Vai explicar isso pra alguém lá não sei aonde.
Speaker 1:A quantidade vai ser tão grande que você não vai ter como definir cara, todo mundo tem algum familiar que já te encaminhou alguma coisa.
Speaker 4:Eu tenho todo dia grupo de família. Eu cansei cara.
Speaker 2:Eu não leio mais grupo de família. Na época da eleição cara, eu evito encontrar família.
Speaker 4:Não, não, não Dá problema, né Não cara.
Speaker 2:Prefiro ficar aqui de boa, tranquilo.
Speaker 3:Mas a gente socialista tem que, durante as eleições, desligar a internet dos 50 a mais.
Speaker 2:Eu só falo durante a eleição de mudar pra outro país, mas vamos lá.
Speaker 1:Talvez a solução pra isso tudo e aí que começa o grande erro talvez a solução para isso tudo era entregar a regulação na mão de uma inteligência artificial que ela vai ter capacidade de analisar o dado. Eu já estava pensando no outro projeto aqui Ela tem volume né.
Speaker 2:Eu já estava querendo aqui.
Speaker 3:Quem codificou essa inteligência artificial? que?
Speaker 4:você quer Olha? só Olha.
Speaker 2:O viés aí Está chegando aí, como é que você tem? Olha, o Vies Tá chegando aí.
Speaker 1:O Vies tá um problema Na hora que você acha que o Salvador você fala assim cara o Vies tá salvador Pode ser o do aquilo lá.
Speaker 2:Mas eu já Sabe o que eu vou fazer. Um teste Vai ser interessante. Vou pegar várias inteligências artificiales, vou escutar as propagandas políticas e depois falar assim qual a probabilidade de tal candidato fazer cumprir o que ele fez ou não. Qual a probabilidade que tem a maior probabilidade de entregar as promessas dele Com base nos dados? Será que ela vai conseguir decidir esses casos? Ela não vai responder, ela vai, mesmo Não vai responder Porque ela tá programada pra não responder.
Speaker 1:Tá programada pra não responder uma pergunta política.
Speaker 5:Olha só eu tava dirigindo essa semana Sacanagem cara Tava dirigindo Ia facilitar a nossa vida. Muito Caralho Eu tava dirigindo essa semana.
Speaker 1:aí eu fiz algumas perguntas pra Círia enquanto eu tava dirigindo e ela me respondeu tava com curiosidade sobre população e tal Eu tava dirigindo em Brasília. Eu fiz algumas.
Speaker 4:Ele é alternativo. Ele é alternativo gente.
Speaker 3:Você arruma mais problema pra esse cara velho. Não tentou entender. Não velho, então domingo, mas tudo bem. Domingo também tô preocupado com esse problema.
Speaker 1:Tem que pensar, com a hora que o chat, como resolver o problema domingo eu tava dirigindo pro Brasília e eu fiz algumas perguntas pro Praciri e enquanto dirigia sobre Brasília, a população e tal. E quando eu fiz algumas perguntas sobre alguns juízes e como é que tá a distribuição das coisas em Brasília, ele, ah, eu não posso responder essa pergunta enquanto você tá dirigindo, falei ué. Aí, eu fazia uma outra pergunta, aí a outra pergunta ela respondia Mas sobre essa. Eu não podia responder enquanto eu tava dirigindo.
Speaker 2:Por quê Você não perguntou pra ela não.
Speaker 1:Porque agora eu tô curioso, eu vou ter que fazer essa pergunta.
Speaker 2:Ela não responde nada relacionado a determinadas pessoas não, mas quando tá dirigindo ou em outro lugar eu parei.
Speaker 1:Perguntei de novo e ela respondia eu não posso responder enquanto você tá dirigindo, mas eu não tô mais dirigindo aí sabe o que ela me dizia eu não posso responder enquanto você tá dirigindo. Ela simplesmente não responde, irmão, simplesmente não.
Speaker 5:Prefere ficar calado. Né Enfim, eu dei uma silência.
Speaker 4:Direito civil né.
Speaker 1:Eu testei várias vezes. Não responde.
Speaker 2:Não, nós vamos ter que dar um hack. Comunidade ajuda a ter um hack nesse negócio. aí O que está acontecendo.
Speaker 1:Já existe algum grau de. Não sei se a palavra correta seria essa. Vamos chamar de regulação, para não chamar de censura, mas já existe regulação por trás do que responde e do que não responde e de que informação é essa que está entregando.
Speaker 5:Essa própria autorregulação que os próprios players do mercado também fazem. Hoje a gente está vendo uma competitividade muito alta em termos de inteligência artificial. Então você tem o Cloud, o Gemini, o ChatGPT e vários outros aqui locais também, que vão ter as suas particularidades. Isso vai começar a proliferar em todo o território. Então é interessante, até porque algumas são mais interessantes para um determinado tipo de resposta do que outras. Então você pode começar também a brincar a explorar um pouco disso. Mas falando também um pouquinho de regulação das redes, as próprias redes também já têm começado a impor algumas limitações e ferramentas para poder limitar e verificar, fiscalizar esse material. O Meta, o antigo Facebook, o Meta também tem ali um oversight board que é tipo um órgão interno que respeita as decisões desse órgão. Eles estavam até aqui em São Paulo na última semana para poder explorar um pouco, esclarecer como é que é tomada de decisão dentro do órgão. O Facebook se compromete a seguir aquelas decisões ali que são tomadas por esse órgão. por exemplo, Bacana.
Speaker 2:Isso já é algo extremamente legal. Eles chamam de supremo do Facebook. Isso é bem legal de saber que tem algo ali por trás pelo menos a autorregulação.
Speaker 1:Eu gostaria de levantar uma bola e até acho isso importante. acho que em algum momento os legisladores têm de estar atentos a isso, que é a tendência de bolha das redes sociais, se você se interessa por um determinado assunto ela te dá cada vez mais e mais daquele assunto. Porque?
Speaker 2:ela quer tempo de tela. Ela não quer que você veja algo, que alguém se discorde, e aí cara.
Speaker 1:Quando o assunto é política, por exemplo, a pessoa entra numa realidade paralela.
Speaker 2:Ela acredita que aquilo todo mundo acha que pensa igual a ele, é isso aí Porque ela não vai te entregar algo que você não quer ver e automaticamente você fica na bolha.
Speaker 1:Esse é o problema do algoritmo.
Speaker 5:Esse é o algoritmo, é um grande perigo, é o seu algoritmo, é um grande perigo do algoritmo. O algoritmo você começa a ver algum determinado assunto, ele já começa a te mandar novamente, exato.
Speaker 1:E aí vamos pensar o seguinte Um lado acha que pô só vê aquilo, aquilo E o outro lado só vê aquilo. Você está criando uma guerra Exato.
Speaker 2:Isso atrapalha até no povo. Todo mundo que eu conheço, todo mundo que eu vejo, é time A ou B. Então assim na vida real, cara as pessoas têm opiniões diferentes. Só que a bolha dele que eles queriam.
Speaker 1:porque eles querem tempo de tela, exatamente porque quando você tinha lá, quando o canal era TV, né, então existe lá o TSE que vai regular e cada partido tem tanto tempo de tela. Esse tempo de tela, esse tempo de tela, antigamente ele era regulado. Você tinha ali na TV um controle disso. Na internet não é assim. Na internet o cara recebe uma quantidade avassaladora de conteúdo de um viés só porque ele clicou naquele viés e agora ele só vai receber aquilo.
Speaker 5:Isso é o que se chama de economia da atenção. Então, hoje, inclusive até um advogado americano ele que criou esse termo, o nome dele é Tim Wu e ele fala muito de direito digital. É um cara que eu me inspiro muito para poder estar lendo o material dele ele fala exatamente isso. A ideia por trás dessas redes é a da economia da atenção e você ficar ali eternamente naquele feed E o algoritmo é trabalhado para isso, para poder ficar te alimentando sempre com o material que você tem interesse. Por um lado, isso eu vejo. Tento ver pelo lado bom, porque você começa a se aprofundar em coisas que você também tem interesse. No entanto, é necessário ter esse cuidado de você abrir um pouco o leque de opções também.
Speaker 1:Agora vou além nesse mesmo raciocínio, porque não está limitado apenas a você clicar. A gente sabe que se você falasse um determinado assunto perto do seu celular, você vai falar que quer comprar uma televisão cara, vai começar a chegar.
Speaker 4:Propaganda de televisão.
Speaker 1:Acabei de dizer assim Estou procurando promoção de televisão Nossa senhora já era.
Speaker 4:Estou doido pra comprar uma TV nova, diminui a meta.
Speaker 2:Diminui a meta. Isso é um fato. vocês podem observar, se o Anderson começar a pesquisar lá, sei lá, vamos falar uma coisa bem exótica, uma mala rimoa.
Speaker 4:Aí a gente começa a andar com o Anderson vários dias ele acha não, se o Anderson tá pes, tá com o Anderson.
Speaker 2:O Diogo também quer uma mala irmão porque ele anda com ele e vai propagar pras pessoas que andam com ele as mesmas coisas, e isso é um fato.
Speaker 4:Esses meninos tem um paladar assim.
Speaker 1:Vamos pensar lá, quando a gente fala sobre propaganda de alguma coisa, você acha até isso menos ofensivo, menos perigoso, né? Mas eu vou citar o Batman, Lá no Cavaleiro das Trevas, que ele chega e desenvolve um aplicativo futurístico que jamais existiria, onde ele consegue monitorar todos os smartphones e localizar o Coringa. Ele fala assim pô, vamos fazer isso aqui. É extremamente antiético, mas vamos apertar esse botão aqui É o MDM da Mini Genji. Pois é cara, É assim.
Speaker 3:Só que só com os equipamentos da empresa. Se vocês precisam monitorar os equipamentos da empresa, entre em contato com a gente.
Speaker 2:É esse aí eles usam lá, é eu já sei mesmo entendeu.
Speaker 4:O cara, o Ed o cara já fugiu, o Russo já contou como é que era já existe e é isso, entendeu, a gente consegue ter acesso a tua câmera, ao teu microfone, ao que for.
Speaker 1:E aí volta pra essa situação toda de privacidade, a tua identidade, você já não tem mais controle sobre ela. Você vai passar numa câmera e vai te reconhecer e você não tem opção. É meu direito não ser reconhecido?
Speaker 2:Não tem. Dessa É uma boa pergunta. Como é que fica a privacidade nesse sentido aí? Você tem que ficar em casa se você não quiser que seja filmado.
Speaker 5:Não, isso é um tema bem legal da gente, falar Que eu trabalho diretamente com isso e existe o reflexo que a IA vai justamente potencializar cada vez mais porque ela vai tracionar, ela vai dar mais volume ainda. Você olha aí, por exemplo, grandes players do mercado, a Amazon, que ali consegue te mandar o e-mail marketing, enfim tudo isso. ela vai ter que começar a conversar com as políticas de privacidade que ninguém lê Inclusive ontem teve uma notícia.
Speaker 5:Acho que após seis meses. Teve uma empresa lá no Reino Unido que colocou caso você nos envie um e-mail isso estava lá na política de privacidade dela nos envie um e-mail pedindo um vinho, tal, você vai ganhar o vinho, a gente manda para a sua casa. Mas estava no meio da política que eles botaram para poder analisar.
Speaker 4:Que legal, que curioso.
Speaker 2:Um teste ali levou por volta de quase 6 meses até alguém né, ou seja, todo trabalho que eu faço ninguém lê. Isso é pra nada. Isso aqui entendeu, é genial esse negócio.
Speaker 5:E aí as empresas têm começado a utilizar, em vez daquele textão, o famoso textão ali da política de privacidade, brincar um pouco com aquilo trazendo elementos mais visuais, mais lúdicos também.
Speaker 3:Vamos fazer uma culpa do usuário também, porque assim você está querendo usar qualquer aplicação, Aí você vai ver os termos e aí você tem que ficar três horas para você ler o termo, para usar uma aplicação que às vezes você vai usar por 20 minutos.
Speaker 1:A gente está num problema também de como a informação é passada para o usuário.
Speaker 1:Eu tenho feito uma coisa que é a seguinte eu copio, colo no chat GPT e peço os highlights E o chat GPT, ele lê o contrato e me dá ó, o que eu preciso saber de mais importante aqui. Ele diz ó, você precisa saber isso, precisa saber isso, precisa saber isso. Ele me dá highlights E eu acho bem útil, mas você vai deixar uma máquina Irmão. É o seguinte Era ou eu não ler nada e só clicar aceito, ou alguém me dar highlights. Eu prefiro os highlights, entendeu? Não, mas faz total sentido.
Speaker 2:isso comentado Foi assim que ele criou a conta do OnlyFans dele gente.
Speaker 5:Só aceitou ele Cuidado com tal coisa, tal coisa, exato. Mas é exatamente isso, na verdade. Ninguém lê e eu super entendo por que não leiam. É um texto robusto, é um texto complicado de ler, que toma tempo Às vezes, que você vai usar por 15 minutos. Não faz sentido. Então, realmente, eu concordo, vale a pena você ter algum tipo de informação do que não ter informação nenhuma. Mas o papel de quem trabalha com isso agora é desmistificar um pouco esse tema trazendo uma linguagem mais lúdica. A gente tem vários exemplos. Se vocês forem olhar aí, por exemplo, a política de privacidade da Lego, eles usaram na verdade um vídeo de motion, né com os próprios brinquedos ali pra explicar.
Speaker 5:Comunicar de forma mais fácil E atrai a atenção do público-alvo deles, que geralmente é criança, adolescente enfim, Inclusive adultos, que eu também já comprei depois de certa idade. Mas é interessante para você se engajar com aquele tema.
Speaker 2:Legal, isso é interessante.
Speaker 4:Daniel, vou dar um flop nessa conversa aqui porque você tem destacado tanto muito conteúdo aí para quem está nos ouvindo nas plataformas de áudio. Não está te vendo. Você é um cara novo, não tanto assim, não novo Cheio de certificados ali dentro do LinkedIn que também arriscam um espanhol e um francês, como é que é isso, cara, cara, isso foi bagagem, na verdade Eu fui, eu sempre fui muito curioso, morei muito tempo sozinho.
Speaker 5:Eu fui morar sozinho com 18 anos E ali eu ia pra faculdade, enfim, mas já me enfiava nos livros, ali também Comecei pra chupar da tarde. Na verdade, então sempre fui meio que nerdzinho, mas também nunca agi como nerd, entendeu, então eu gostava dos temas, mas não era aquele clássico nerdzão ali mesmo. E isso foi bagagem.
Speaker 4:E arranha o espanhol e francês mesmo. Ou é aquela coisa de LinkedIn pra?
Speaker 5:Não é mais o francês. Eu estudei num colégio francês lá no Rio, então isso eu aprendi desde novo. Isso eu falo. Não pratico muito porque não tenho com quem falar na verdade, mas no trabalho, hoje eu uso.
Speaker 2:Nem marque o dia né.
Speaker 4:Os caras são tão legais.
Speaker 1:Inclusive, eles vão adorar porque você vai falar francês tirando isso vai ser melhor que atar no Emmer né, Mas lá na França, você tem que falar francês senão o inglês tem que ser o que você quer falar E eu sou muito torto com eles.
Speaker 2:Olha um torto, Não olha pra caralho.
Speaker 5:Mas no meu trabalho diariamente eu trabalho hoje especificamente com inglês e espanhol o tempo todo, então trabalhando com clientes de fora estrangeiros, muitos clientes com interesse aqui, client, clientes brasileiros que estão expandindo lá pra Europa e Estados Unidos, também América Latina.
Speaker 1:E quem não está nos assistindo, mr Anderson, Cara, você que está aí no YouTube e não está seguindo a gente, por favor clica, segue o canal, assina o canal, clica no sininho, recebe notificações. Você que está ouvindo a gente também pelo Spotify, dá um pulinho no YouTube e segue a gente, além do Spotify, é óbvio, mas também segue no canal do YouTube. Nós lançamos esse ano a nossa versão em vídeo. Até então a gente tocava muito mais Spotify. Nós estamos top 5 de podcast de tecnologia Brasil lá no Spotify, mas no YouTube nós estamos apenas engatinhando. Nosso sucesso no Spotify eu atribuo, nós estamos apenas engatinhando, né Nosso sucesso no Spotify atribui a não ter imagem, entendeu?
Speaker 5:Então tá sendo um pouco difícil no YouTube, já que as pessoas estão vendo a gente agora né.
Speaker 4:Mas clica aí. Olha o Daniel, que sincero. é verdade, gente, é verdade É verdade é a sinceridade.
Speaker 2:Muito bom, Sensacional, Mr Anderson. Cara a gente papo, tá bom inevitavelmente chegamos ao final desse papo.
Speaker 1:Ao final desse papo, mas a problemática continua ainda temos muito problema pra acontecer vamos falar sobre isso inevitavelmente deveríamos, mas não dá mas vem bomba. Pode esperar que vem bomba, por aí vamos ter, noteveríamos, mas não dá né. Mas vem bomba Pode esperar que vem bomba por aí. Vamos ter notícias terríveis diárias sobre isso né. Mas vamos deixar agora nas suas mãos, que são considerações finais. Deixa o microfone na sua mão pra você deixar aí desde mensagem motivacional, jabá link. o que quiser, Fica à vontade, doutor.
Speaker 5:Não, pessoal, só queria agradecer aí pelo convite. Enfim foi muito bem tratado aqui por vocês, o papo fluiu muito fácil também.
Speaker 4:Obrigado a você.
Speaker 5:Papo super dinâmico. Já sou fã de vocês, já estava acompanhando, inclusive e como consideração final, eu chamo atenção pra esse tema. Né Não é distante da nossa realidade, na verdade, muito pelo contrário. O brasileiro vai cada vez mais se confrontar com temas de inteligência artificial e isso é uma legislação que precisa pegar no Brasil, não pode ser somente a letra fria ali da lei. Então, é acompanhar o debate, é você se engajar com esse debate, participar também de maneira ativa, para que você possa trazer um pouco da sua influência pessoal aos legisladores, reguladores, enfim as entidades, então a a sua influência pessoal aos legisladores, reguladores, enfim as entidades. Então a gente está num momento de formação essencial no Brasil com relação a esses considerandos, para a gente poder ter uma legislação que coloque o Brasil novamente na rota de inovação, competitividade, concorrência e, justamente, projetar o país como um player importante no cenário mundial Sensacional.
Speaker 2:Doutor, muitíssimo obrigado aqui pelo seu tempo conosco. O Clube do Futebol Fundo vai ficar sempre aberto. O papo foi bacana, polêmico, né Porque não tem como, porque envolve muita coisa. Jogaram algumas fogueiras, não tem jeito, mas faz parte.
Speaker 5:É isso aí. Mas como advogado a gente tem sempre um jeitinho saboado.
Speaker 1:É isso aí, galera, vamos torcer pra não dar muita merda.
Speaker 5:Porque alguma vai dar. Fica a dica. Os contatos vão estar aí, no contato descrição.
Speaker 1:Advogado pode ser o último.
Speaker 2:Se você roubou, nos ouviu até agora. Pode continuar de robô também.
Speaker 5:Pode café da P&E quinta temporada Valeu.