PODCAFÉ TECH
Aqui você encontrará um bate-papo informal entre profissionais de TI e convidados das mais diversas áreas tratando temas quentes com muito bom humor. Se você é apreciador (ou não) de um belo cafezinho, com certeza vai curtir esse bate papo. Uma forma descontraída e agradável de se informar e manter-se atualizado com as principais questões da gestão de tecnologia. Nossos hosts Gomes, Mr. Anderson e Dyogo Junqueira nos conduzem através deste podcast, sentados em torno desta mesa virtual, tentando reproduzir o prazer daquela conversa inteligente acompanhada pelo cafezinho da tarde, vez ou outra deslizando para uma mesa de bar, afinal ninguém é de ferro. Feito pra te acompanhar na estrada, no metrô na academia ou onde mais quiser nos levar, colocamos o “Pod” no seu café! Pode desfrutar, pois foi feito pra você!
PodCafé Tech
PODCAFÉ TECH
Daniel Marinho: Desafios legais da tecnologia moderna
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Neste episódio do PodCafé Tech, recebemos Daniel Marinho, advogado da Peduti Advogados, para um debate incisivo sobre tecnologia e privacidade. Investigamos a responsabilidade da inteligência artificial por decisões prejudiciais, os limites éticos da coleta de dados pessoais e o papel dos algoritmos na propagação de fake news.
Também analisamos o impacto da automação no mercado de trabalho, as exigências para a regulamentação de drones e veículos autônomos, e as implicações da responsabilidade civil em acidentes com esses veículos.
Não perca essa discussão crucial e prepare-se para insights críticos. Assista agora! 🎥
Participantes:
Daniel Marinho - Advogado da Peduti Advogados
Dyogo Junqueira - Co-Host do PodCafé Tech
Guilherme Gomes - Co-Host do PodCafé Tech
Anderson Fonseca - Co-Host do PodCafé Tech
Adriano Mano - Diretor ACCyber
PodCafé Tech é um podcast onde Mr Anderson, Guilherme Gomes e Dyogo Junqueira, recebem convidados para falar de uma forma descontraída sobre Tecnologia, Segurança e muito mais.
YouTube: youtube.com/@podcafetech
Instagram: instagram.com/podcafetech
Linkedin: linkedin.com/company/podcafe
MÚSICA. Pode tá certo, pode tá certo.
Speaker 1Muito bem, muito bem, muito bem. Estamos começando mais um Podcafé da TI, podcast, tecnologia e cafeína. Meu nome é Anderson Fonseca, o Mr Anderson, e o nosso departamento jurídico bloqueou a piada de advogado que teria aqui. Mas vamos que vamos.
Speaker 3Aqui é Guilherme Gomes da Acess Software e eu ainda não fui convidado para o localizamento do meu melhor amigo.
Speaker 4Adriano Omano da Acess Cybersec.
Speaker 2Diogo Junqueira, CEO da Acess Software. Para nós é um prazer receber o convidado de hoje. Vou deixar ele mesmo se apresentar.
Speaker 5Obrigado pessoal, Daniel Marinho, também advogado, que trabalha com alguns temas envolvendo tecnologia. Vamos bater um papo hoje.
Speaker 2Sensacional. Dr Daniel conta pra gente. então. primeiro, como é que um advogado foi aí se interessar pela área de tecnologia? pros nossos ouvintes se situarem, entender um pouco da sua trajetória? Conta pra gente onde é que começou esse interesse relacionado à área de data protection, digital law, etc.
Speaker 5É isso aí Desde novo. Eu sempre tive muita facilidade com o tema. Já tinha feito técnico em informática, já desmontando computador, aprendendo algumas noções já de lá no início né Final dos anos 90, ali Então programação também, então cheguei a pegar essa fase, pô cara você foi fazer direito.
Speaker 2Pra quê, velho, eu tava indo.
Speaker 5Certo, você desviou o direito De onde foi cara, mas sempre tive essa aptidão ali. Natural A família obrigou, foi foi Meu pai, ela advogado, mas nunca me pressionou não Não, não, não.
Speaker 1Eu ent, mas nunca me pressionou.
Speaker 2Não, eu entendo sem pressão. Você quer um carro de pressão, você quer é isso, lá continuar?
Speaker 5morando aqui. Você quer continuar morando aqui em?
Speaker 5casa mas eu sempre tive apetidão pelo tema, interesse desde novinho, ali já comprando revista lá na época ainda se comprava revista então ia na banca ali comprar revista importada pra saber do tema, enfim desmontando o computador, comprando software enfim, e ali comecei a me interessar pelo tema mais focado aqui no direito digital, propriedade intelectual, proteção de dados, final dos anos 2000,. Ali eu comecei a estagiar na época na área, num escritório que tinha como cliente o Google, por exemplo. Então a gente já comecei a trabalhar ali com temas, já me interessava muito pelo assunto e ali eu já me encontrei e falei assim ó, é isso aqui, por aqui, que eu quero seguir, né. E desde então é onde eu tenho dado ênfase na minha carreira.
Speaker 2Legal, cara. Hoje, cara, quando a gente fala digital law, nós estamos falando tem muitos temas polêmicos que a gente pode entrar. Tem a inteligência artificial, tem a LGPD, que já está já falando bastante aqui. Eu acho que o que você pensa em relação especificamente a regulamentação da inteligência artificial, eu vi que a Europa já lançou aí a sua primeira ação em relação a isso. No Brasil se discute, ainda está bem prematuro, mas qual é a sua visão com relação a esse tema, cara?
Speaker 5É um tema urgente. né Vocês viram aí que essa semana o chat de PT lançou aí uma nova atualização também Rápida pra caralho.
Speaker 5Muito mais rápida eficiente, então isso vai trazer uma produtividade, um aumento de eficiência muito grande para várias indústrias. Então, só que isso tem também seu lado que pode vir a causar alguns danos. E aí que entra o papel do regulador de justamente tentar mitigar danos, tentar justamente aparar essas arestas. Falando especificamente de Brasil, a gente está vendo aí o que a gente chama de efeito Bruxelas. Então, como vocês comentaram, regulou lá fora, assim como foi com a LGPD, começa na Europa um movimento do tipo e o efeito Bruxelas vai espalhando ali para os demais países e aí chegou agora aqui no Brasil, né sobretudo aí como rebote aí de eleições, que também está aí na mira do ano para acontecer, enfim uma série de desdobramentos. Porém, eu ainda vejo que é necessário muito mais debate, trazer principalmente tanto academia, profissionais da atividade privada, enfim organização civil, a própria sociedade civil, para debater do que ser feita a aprovação de uma lei a toque de caixa.
Speaker 1Você acha que a gente espera de propósito, porque assim você está falando do efeito Bruxelas, é porque existe essa tendência de primeiro surgir a regulação na Europa e depois vira. Parece que a sensação que eu tenho é que todo mundo vai esperar o texto da Europa. Os caras fazem o trabalho difícil.
Speaker 4A sensação que eu tenho é É um pouquinho do LGPD. É a sensação que eu tenho.
Speaker 2É de pior, já está lá rodando que é o seguinte a gente tem aqui de um lado a América, tem do outro lado aqui a Ásia, então vamos falar tem Estados Unidos, china e Europa ali no meio pra regulamentar o negócio, entendeu? Então eu acho que é o meio termo.
Speaker 1De fato estão cumprindo o papel deles, porque eles não vão nem pro esquema nem pro outro. Vamos dar essa regulada aqui.
Speaker 2Estão tentando então, e querendo ou não, como sociedade composta de leis são uma das mais antigas que tem né.
Speaker 5É o regulador na Europa tem uma característica própria, né Ele costuma de fato sair na frente, ele já sai ali na frente. Enfim o efeito Bruxelas mesmo acontecendo E por um outro lado, os Estados Unidos já trazem também um cenário um pouco diferente Eles deixam o negócio correr um pouco mais sozinho.
Speaker 1A legislação lá é um pouco mais quebrada. Vem por estados, tem toda uma. É muito diferente da nossa.
Speaker 5Eles privilegiam muito o federalismo. Então a Califórnia avança em alguns temas, a Flórida em outros, mas existe um movimento lá também, falando aí sobretudo em proteção de dados, movimento bicameral para poder aprovar uma lei federal americana. Isso está na pauta aí também em andamento. Existe um esforço ali tanto de democratas e também dos republicanos para poder aprovar uma lei nesse sentido. Mas especificamente falando de IA, a gente olha muito mesmo isso, o pessoal espera mesmo acontecer um pouco. Lá fora o pessoal tem muito mais subsídio para aprovar. Vem uma lei muito robusta também para esse tema e nos Estados Unidos o tema anda um pouco mais solto.
Speaker 2Eu acho que até pela união europeia eles são unidos realmente como uma união de países eles conseguem conversar de uma maneira bem mais estratégica e bem mais fluida do que outros países. Imagino. Eu entendeu Porque aqui no Brasil é pô, você falou vai trazer a sociedade. Cara, a gente viu como foi durante a LGPD, né, cara, foi uma confusão do caramba.
Speaker 3E eles estão um pouco mais avançados que a gente no âmbito geral de organização de educação e tudo mais. Então é natural por eles serem mais velhos. Entre aspas, eles estarem um pouquinho na frente em relação a isso, porque se a gente for olhar os modelos, tudo que a gente vai olhar de modelo de educação e tudo mais a gente acaba chegando e olhando para a Europa Vem de sempre.
Speaker 5Falando de LGPD, isso tomou aqui no Brasil por volta de 10 anos. Começou ali as primeiras audiências públicas lá em 2010. Agora, quando a gente vai falar de inteligência artificial, até pelo impacto que ela tem, que ela atinge qualquer.
Speaker 2Exatamente, ela atinge toda e qualquer indústria, Então o negócio é muito mais rápido, mesmo E ainda assim a gente vai ficar atrasado. De toda maneira, Você acha que algum dia os robôs vão precisar de advogado? cara?
Speaker 5É o Bovim precisar de advogado, cara É possível?
Speaker 2tá, É bem possível, Porque esse companheiro aqui acha que daqui um pouco algum ministro aí vai mandar prender o chefe de PT.
Speaker 5entendeu, É possível tá, não descarta a CDA, não porque algumas inteligências artificiais podem causar danos. Então se você usa ela sem muito resguardo, sem ali o double check como a gente costuma falar, né Faz fazer ali a verificação daquela informação, você pode causar algum tipo de dano. E isso já tem acontecido Nos Estados Unidos. por exemplo, um advogado, ele foi sancionado ali pela Bar Association, a OAB lá americana, porque ele basicamente pediu um documento ali no chat de PT, emitiu pra ele o material, ele copiou, colou e jogou lá, só que sem fazer o double check e tinha coisa inventada né O que a gente chama de alucinação.
Speaker 2Eu vi esse caso alucinou pra caramba, cara. você imagina você chega no tribunal, você cadê. Eu tô representando meu cliente. Tá aqui, ó, senhor chat CPT.
Speaker 3eu apresento meu cliente, cara é O cara, leva um pendrive, entendeu.
Speaker 2Não, não, não Tá aqui, tá no meu celular. Vou perguntar pro meu cliente. Você vai fazer uma pergunta, porra.
Speaker 1É, mas vamos lá. Entendeu, Falando em chat, GPT dá pra fazer exatamente isso né, eu sei que dá Dá pra literalmente perguntar pra ele.
Speaker 2Hoje eu vou te falar. Há pouco tempo que eu tive livre. Hoje eu só brinquei com quatro homens aí. Né For homni, é muito rápido.
Speaker 1É impressionante. Bati um papo com ele hoje também.
Speaker 5É assustador É muito rápido O negócio é um absurdo. E agora com outras funcionalidades.
Speaker 2Vídeo, imagem enfim Alguém de vocês mandou na tela ensinando matemática Rapaz não precisa ensinar física.
Speaker 3Eu fiz no Instagram hoje isso Você viu, você queriou lá no Instagram, cara, eu fiquei.
Speaker 2Não, eu nunca mais vou chegar. na verdade, eu já tinha ficado assustado.
Speaker 3E aí quando eu vi o resto de um monte de coisa. que Velho o cara olhar um triângulo e falar não você faz isso, isso Cara o que você
Speaker 4tá fazendo Porra É muito fluidez, né cara.
Speaker 2Mas agora, falando sério, até que ponto? e isso é uma pergunta pertinente, porque vai acontecer, sabemos que todos erram e a inteligência artificial em algum momento vai errar e vai acontecer um incidente. Até que ponto a gente pode responsabilizar a inteligência artificial para um caso, um incidente de um carro autônomo, por exemplo, O projeto de lei em andamento prevê que o uso da inteligência artificial pode comportar alguns riscos.
Speaker 5Então, quando esse risco e a gente vai começar a falar um pouquinho de responsabilidade civil?
Speaker 2também Vamos falar de civil e criminal. Como é que vai ser essa questão?
Speaker 5Matou.
Speaker 4O amigo do mano ali Decidiu.
Speaker 2Chegou lá, um corintiano estava atravessando, olhou para os lados e pô atropelou.
Speaker 5É quando essa inteligência artificial puder. O corintiano é GPT atropelou.
Speaker 1Quando essa.
Speaker 5IA puder causar riscos excessivamente elevados. A gente entra aí no campo da teoria do direito de responsabilidade civil objetivo. Então a responsabilidade seria ali no caso né daquele fabricante daquele carro, por exemplo. A responsabilidade seria ali no caso daquele fabricante daquele carro, por exemplo, até porque ele vai se valer do ganho econômico, do ganho financeiro, de toda a receita que ele vai obter com relação a isso. E sem dúvida vai existir ali uma tese de defesa dizendo olha, na verdade aqui eu terceirizei a produção aqui do meu software, da minha IA, para uma empresa contratada.
Speaker 5Mas não, então, esse lado que ainda não está fechado ali no projeto de lei, ele vem levando em consideração que se for um risco excessivamente elevado, que pode causar risco a direitos fundamentais, direitos humanos, então você teria ali um risco objetivo, o que isso quer dizer O dano ali acarretado. Você bastaria entrar com uma ação judicial, comprovar a ligação, o que a gente chama de nexo causal. Então, comprovando esse nexo causal do fato ali acontecido, o fato ocorrido com o dano, vinculando essas partes, você ali imputaria essa responsabilidade ao fabricante, a quem está dispondo daquele serviço ou produto no mercado.
Speaker 2Então vamos lá na prática. Então o Tesla vai na ZL não tem placa direito. O corintiano olha pro lado. Atropelou o corintiano, matou o corintiano. Beleza, família do corintiano processou a Tesla. A Tesla vai paga lá. Não é problema pra eles pagar. Tem dinheiro pra caramba, ok, tem o dano reputacional aí também né É faz um piar isso aí vai, vai ter que lidar com essa questão, etc.
Speaker 2Mas ainda tem a questão de quem vai preso. Alguém vai preso nessa situação dessa porque esse amigo aqui quer que prenda o chat de APT, quer que prenda a inteligência artificial até explicar, contextualizar ele.
Speaker 4Eu falei assim a gente teve uma conversa ontem quente sobre isso eu acredito que uma inteligência artificial poderia ser presa.
Speaker 1o que eu quero dizer com isso? sofrer realmente sanções judiciais De 12 meses de cadeia De 12. Essa inteligência artificial se provou não competente, por exemplo, em reconhecimento facial, então ela está condenada a não ser usado isso em aplicações XYZ. Eu acho que um juiz pode chegar a decretar essa prisão de uma funcionalidade, não vocês.
Speaker 2A OpenAI é uma empresa, vão surgir outras empresas de IA É não estamos fazendo.
Speaker 1Essa empresa de IA aqui essa IA aqui não pode atuar nesse mercado e acabou. Eu acho que isso vai acontecer.
Speaker 5Essa é uma lógica parecida no que acontece ali na sistemática da própria LGPD, por exemplo, que é onde a IA também vai beber muito na fonte. Então, se você trata, processa algum dado que possa causar algum risco relevante, caso você não atenda as sanções, como colocado, aquilo ali pode acarretar judicialmente. se alguém entrar com alguma ação judicial na interrupção justamente daquele processamento daquele dado, isso poderia perfeitamente ser também acolhido para o uso da inteligência artificial.
Speaker 5O que é interessante falar em termos de criminal aqui e também de responsabilidade civil, é que você tem também que equalizar um pouco a proteção ao desenvolvedor também, porque a pessoa ali que desenvolve faz o produto ela vai se sentir quase que ali desincentivada a poder justamente desenvolver, porque ela não vai ter incentivo e segurança jurídica pra ela poder desenvolver um produto útil.
Governança E Uso Da IA
Speaker 2É onde eu tô querendo chegar. Pô, ok, shit happens, aconteceu Alguém vai preso, né vai ser quem. Vai ser o cara que escreveu aquela linha de código especificamente, tem como tá, vai saber que foi a linha especificamente que deu errado? aí vai preso quem? O responsável pela empresa, pela penal jurídica? se for preso alguém, ah, não, não vai ter gente prendendo ninguém, não sei. Ou vai ser aquele desenvolvedor que fez aquela linha específica, que tem um erro, etc. Então assim, essa é a dúvida que realmente eu tenho e não sei se alguém sabe responder.
Speaker 5É em meu ver vai acarretar muito na preparação da empresa de anteriormente ao lançamento no mercado desse produto de inteligência artificial. Foi o que a gente estava comentando aqui. Tem a OpenAI, que tem a Microsoft ali por trás, uma empresa bilionária, uma das maiores do mundo, que injeta muitos recursos financeiros, mas nem toda a IA, e a gente vai começar a ver um boom também de IAs, de startups ou seja empresas menores que não tem todo esse capital para poder aportar ali, naquele que a gente chama de segurança, de trust and safety, ser habilitado ou não para fazer uma coisa ou outra.
Speaker 1E se fizer uma coisa que não era habilitada, eu acho que deveria sofrer essa situação. Eu prevejo esse tipo de situação.
Speaker 2A solução econômica e de limitação da tecnologia. Eu já entendi que isso é uma questão óbvia vai ter em algum momento Criminal O negócio assim cara. Teve ali o IA resolveu não viu, identificou uma falha gravíssima nesse caso Tinha uma passeata acontecendo, não estava previsto que tinha uma passeata. Ela falhou, não viu, estava todo mundo vestido de branco e ela aprou a falha da luz, sei lá o que e atropelou cinco, seis pessoas ali nessa passeata E aí Foi um incidente que causou várias mortes.
Speaker 5Se fosse um cara ou uma pessoa dirigindo, ele seria responsabilizado ali, sem dúvida, sem dúvida, e nesse caso Nesse caso eu entendo né E ainda é um tanto acontecido pra gente poder falar isso né O projeto tá em andamento, mas a empresa precisa apresentar evidências de que visualizou esse tipo de situação, essas situações sobretudo no mercado de atuação, por exemplo a Uber e outras empresas que estão desenvolvendo carros autônomos, por exemplo. Elas precisam prever esse tipo de situação. Isso não é um evento adverso ou alguma coisa muito inatingível. Então, se você não comprovar que você justamente envidou esforços financeiros para poder se precaver com relação a isso, eu vejo claramente que poderia acarretar um inquérito criminal também contra o presidente, o CEO, enfim, aquele departamento ali responsável.
Speaker 2Então, até aí a galera tem que começar a se preocupar um pouco.
Speaker 5É o que a gente chama de governança de inteligência artificial.
Speaker 2Tem que ter governança e tem que pensar. A análise de risco tem que ser muito bem feita.
Speaker 1E outra coisa, como você mencionou agora há pouco, a inteligência social alucina. Então até nós termos uma versão que seja livre de alucinar ainda vai levar bastante tempo Porque, diversão em diversão de um modelo para outro, são feitas correções por seres humanos mesmo. Eles vão lá e analisam decisões que foram tomadas e vão fazendo o que eles chamam de toning, afinando ali essa capacidade da inteligência de tomar decisões e torna isso cada vez mais apurado. entendeu?
Speaker 4Você sabe que a Amy Webb tem um livro, the Big Nine, e ela traz essa preocupação Com quem enviesa, quem programa, quais as crenças, o que está por trás da criação dessa pessoa que pode direcionar o comportamento da inteligência artificial. Isso é super relevante. Mas eu queria dar uma invertida nesse jogo. A gente falou bastante da implicação disso para as empresas, para o nosso dia a dia como cidadãos, dentro do seu campo de atuação hoje, como é que vocês têm utilizado inteligência artificial? Você hoje está num super escritório, quase 50 anos de tradição. como é que vocês têm, se não utilizado, visualizado o uso de inteligência artificial?
Speaker 5Para o advogado tem dado uma boa mexida no mercado e é muito interessante como o advogado vai se valer dessas ferramentas para poder ser cada vez mais eficiente.
Speaker 5Então a gente usa para justamente às vezes refinar algum parágrafo, porque a gente vive muito no mundo do juridiquês, falando muito entre pares também E às vezes para traduzir isso para o cliente, que hoje ele não está muito preocupado em uma linguagem rebuscada, mas sim, na verdade, o advogado tem que se fazer entender. Então eu mesmo já utilizei pra melhorar às vezes um parágrafo que eu tava parado ali não conseguia sair daquilo, e o ChatPT, após o meu input, meu prompt, me devolveu um texto que tava um pouco mais claro. Então, me trazendo essa eficiência na comunicação.
Speaker 2Então, pra você explicar pro cliente o que tava ali, com aquelas linhas complicadas você usou, ele É interessantíssimo, já cheguei a usar pra isso. Rapaz, chega lá e fala, explica isso aqui pra um leigo, como é que.
Speaker 5Exatamente, vai encontrar palavras e é muito bom É porque você, justamente, sair escrevendo é o mais fácil, né Escrever 10 páginas, 50 páginas de um assunto é fácil O difícil é você, é fácil pra você velho.
Speaker 2Eu te falo que nunca faço Pro advogado, né, mas o difícil é você refinar aquilo e deixar o essencial de maneira concatenada.
Speaker 5Fazer pro português É é.
Speaker 1Essa coisa bacana. Até um comentário que assim eu sou um apaixonado por Asimov. Né Toda a literatura do Asimov, inclusive, inspira muito do que a gente vê em inteligência artificial e robótica. Nós estamos vivendo exatamente o início dos anos que os livros de Asimov descrevem, e um dos textos mais famosos dele, base de tudo são justamente três leis, são as chamadas três leis da robótica, que eu vou até citar aqui que a lei número um é um robô não pode ferir um ser humano ou permitir que um ser humano sofra algum mal. A lei número dois Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei. E a terceira é um robô deve proteger a sua própria existência desde que não entre em conflito com as leis anteriores.
Speaker 1Então, assim, cara, se você parar para pensar inteligência artificial, ela trabalha em cima de textos e orientações, em leis mesmo, né? Então, na prática, um robô que já é uma realidade. O que ele tá fazendo é executar leis o tempo inteiro, entendeu? E assim a importância jurídica do que vem adiante é essencial, é um negócio.
Speaker 5Isso é super importante também que você comentou, porque foi um paralelo bem interessante. eu Isso é super importante também, o que você comentou, porque foi um paralelo bem interessante, eu não tinha pensado nisso e se ele está executando leis, que essas leis sejam claras e diretas e sem contradição. Então é importante que o próprio comando, o prompt ali dado, seja muito interessante e essas diretrizes também trazidas também precisam ser claras e que não entrem em contradição, se não acontece justamente a alucinação ali né que a gente já tem presenciado.
Speaker 1Dessa situação, até pegando um exemplo que o Diogo deu que me fez lembrar do próprio lembrei do Assimóvel, por causa do exemplo que o Diogo deu que no Eu Robô o que acontece. Um robô ele toma a decisão de salvar a pessoa. Tava num acidente, tinha lá um carro afundando na água e tinha uma criança e o adulto. E o robô olha não, quem tem chance de sobrevivência é o adulto.
Speaker 1Ele vai salvar o adulto e deixa a criança afogada Estatisticamente, Estatisticamente, E fala assim cara essa decisão, o ser humano não tomaria essa decisão, entendeu? E aí entra uma série de questões morais e éticas e tal E coisas que uma máquina nunca vai poder fazer da mesma forma.
Speaker 5É, tem um livro muito legal. É um jurista americano chamado Michael Sandel, ele tem um programa em Harvard e um livro também com várias palestras chamado Justiça, e ele traz essas problemáticas. Acredito, eu até que ele vai ter que atualizar o livro agora pra poder prever essa questão envolvendo inteligência artificial, por exemplo, porque um dos casos ali que ele traz é justamente o caso do trem que sai do eixo. Justamente pode atingir duas pessoas, ou pode atingir uma com mais idade a outra com menos idade é sensacional é sensacional pra
Speaker 2caralho e vejo isso perfeitamente sendo aplicado agora E tem muita gente que utiliza esse tipo de teste até em teste RH. Né Qual seria a sua decisão, cara Então?
Speaker 5É aí que começa a complicar, é aí que começa a questão de moral e ética e etc.
Speaker 2Né cara, sim, e quando você leva pra esse campo né utilizando a IA e o que ela pode tomar de decisão. Aí eu entendo um pouco das preocupações do Anderson.
Speaker 4Claro que não vai acabar antes, não vai ser amanhã ele o cara acha que não vai acabar todo dia.
Speaker 2a gente vive com isso aí, né Gomes, todo dia ele fala não é amanhã, então, mas ele realmente acha que as marcas vão dominar o mundo realmente acha que as máquinas vão dominar o mundo?
Speaker 4Eu entendi. você aproveita todo dia como se fosse o último.
Speaker 1É exato, É uma teoria, isso é fato.
Speaker 3E aí ele fica indeciso entre inteligência artificial, ET e alguma outra dominação de alguma outra coisa que está sempre entre essas três coisas entendeu.
Speaker 1Eu não vou dar spoiler, não, mas está tudo ligado.
Speaker 2Outro campo que é interessante que a gente pode comentar você tá se falando bastante de identificação facial. Londres hoje tem sei lá mais câmeras do que em qualquer outro lugar no mundo. Então é extremamente monitorada. E a gente vai pra uma questão que muita gente aqui fica se sentindo no verdadeiro Big Brother né Até onde você acha que vale a pena que se pode monitorar a sociedade em nome da segurança, né A gente tem alguns casos de, por exemplo, a PM não querer colocar uma simples câmera ali porque achar que ali está invadindo o direito tentando monitorar a privacidade. Enfim, tem uma série. É um assunto extremamente polêmico. Qual é o seu pensamento com relação a esses limites entre privacidade e monitoramento para a questão de segurança?
Speaker 5É isso aí, é o que a gente no direito chama de hard case. Né, Então, assim não tem uma resposta fácil, né Você precisa ponderar os interesses ali, os princípios ali envolvidos. Esse é um tema que sem dúvida voltou muito a pauta. Né, Voltando um pouquinho aqui atrás, depois do 11 de setembro, você viu que várias liberdades civis foram flexionadas por conta de tudo que aconteceu, que todo mundo conhece enfim. Mais recentemente também teve o escândalo, por volta de 10 anos atrás, com o Edward Snowden, também nos Estados Unidos, a NSA também ali fiscalizando o país como um todo e descobriu até mesmo espionagem em outros países. E eu, por exemplo, que sou lá do Rio de Janeiro, Copacabana, por exemplo, é um bairro que é repleto de câmeras de identificação com coleta dessas informações, E o que acontece na prática é que a pessoa às vezes está andando na praia, é confundida com uma outra pessoa ou tem um mandado de prisão ali em aberto.
Speaker 5E já tem acontecido, e já aconteceu, inclusive acho que, se eu não me engano, um turista argentino que aquele mandado de prisão ali já tinha até né, já não tava mais em vigência, né.
Speaker 2E ele foi abordado, direcionado.
Desafios Na Regulamentação Tecnológica
Speaker 5Isso pode causar uma série de problemas e que também leva à questão dos vieses ali né envolvidos Geralmente essas soluções né de coleta de dados. Nesse sentido elas são muito feitas para um determinado espectro da sociedade, o cara branco ali do Vale do Silício ou o cara da Faria Lima, o cara ali do Leblon no Rio de Janeiro. Então isso pode acarretar uma série de problemas E quem que vai pagar depois dessa conta o prejuízo que isso aconteceu? Realmente não é uma solução fácil. Eu ainda vejo que precisa ter vários freios e contrapesos ali de verificações posteriores à utilização dessa ferramenta.
Speaker 2É que tem, foi até comprovado, né que tem. A inteligência artificial foi treinada, tinha sido treinada para uma base de homens brancos, etc. Então assim automaticamente ela não tinha a capacidade a aprendizado de identificar um homem negro que estava lá, etc. E automaticamente tomava a decisão incorreta. Então eu acho que, pessoal, não é que eu sou contra o monitoramento, mas é muito delicado como eles já estão aplicando essas questões no dia a dia. Né, essa é a minha dúvida. E quando se trata de governo, você processar o governo é impossível. Né, cara, você não tem pra onde correr.
Speaker 1Eu posso citar aqui um outro uso pra isso Chegando no Brasil, sabe que chegando lá na alfândega, agora você passa, tem que tirar a boné, tem que tirar óculos, tirar o que for. A câmera tá pegando o seu rosto, ela te identifica facilmente. Eu cheguei a primeira vez que eu cheguei, já depois disso o policial virou pra mim. senhor Anderson, pode me acompanhar, por favor?
Speaker 2Ele já sabe que é você, Na verdade eu Estádio de futebol. estádio de futebol eu entro no estádio do maior time do centro-oeste, o Goiás, então automaticamente só entro lá, só com a minha face teve um caso não lembro, no nordeste do país que um indivíduo negro ele foi lá não reconhecido- mal identificado exatamente.
Speaker 5Prepararam inclusive todo o projeto por causa desse negócio isso são casos aí a gente sabe da realidade também do cenário do futebol, com brigas que podem acarretar em mortes, enfim danos aí as pessoas. Então é uma ferramenta que é bem vinda ali pra poder garantir também a segurança. No entanto você não pode só simplesmente implementá-la sem mitigar esses riscos. Pode acontecer alguns cenários de uma pessoa ser barrada sem fundamento, enfim isso tem sido aplicado. Tem essa previsão a Lei Geral de Proteção de Dados, né tem uma previsão também pra ser aplicada em estádios, clubes de futebol também vem valendo dessas informações pra também sócio-torcedor. Então é um cenário aqui, né especificamente falando, muito importante pro cenário nacional.
Speaker 5Né o Brasil, país aí com mercado consumidor de futebol absurdo, né enfim a gente tá sempre olhando pra isso também. Mas não pode ser feito né à torta e direito, né a gente precisa né justamente implementar algumas medidas de salvaguarda ali pra poder resguardar essas violações. E esse é o papel basicamente do advogado, né ele precisa estar aparando essas arestas para poder implementar. A tecnologia é muito bem-vinda, no entanto a gente só precisa. Todo mundo aqui já viu Black Mirror, sabe.
Speaker 4Como é que isso?
Speaker 5pode ocasionar ali, e é maravilhoso a gente acompanhar a evolução dessas tecnologias. Elas só precisam ter essas mitigações implementadas de maneira adequada.
Speaker 2Legal. A gente teve um debate que muitas vezes até foi Uns haters veio no YouTube comentar que muitas vezes a situação tem que acontecer para a lei vir. Tipo assim primeiro veio o acidente do trânsito, depois vinha as leis de trânsito para ir prevendo.
Speaker 4Sinto de segurança.
Speaker 2Exato. Então assim você acha que precisa acontecer algo realmente, e aí a gente vamos regulamentar ou a gente tem que pensar de regulamentar antes de algo acontecer, entendeu?
Speaker 5Isso classicamente acontece no direito, no ordenamento jurídico Primeiro a situação se vira um fato né Traz ali, uma realidade fática, se torna um problema pra em seguida vir a regulamentação. Isso acontece um exemplo clássico e recente que a gente pode usar foi a própria Uber. A Uber, quando começou ali em São Francisco nos Estados Unidos, taxistas lá e isso depois aqui no Brasil também se repetiu começaram a se revoltar com relação ao uso dessa tecnologia. Começou a acontecer esse movimento de proibição primeiro, para depois vir a regulamentação. Então isso é clássico de acontecer no direito. O direito não consegue acompanhar a evolução da tecnologia, até porque o mercado é muito mais dinâmico. A gente está vendo aí o Chet Tipiti indo para a quarta versão, como a gente falou, e sequer ainda tem um projeto de lei aprovado, uma legislação aprovada, enquanto que eles estão avançando. Então é muito difícil a gente conseguir regulamentar de maneira prévia qualquer tipo de nova tecnologia.
Speaker 2Tá, entendo, mas assim por que tem que ser tão. depois Eu vou te dar um exemplo desse tão depois A lei Joca.
Speaker 4A gente teve vários casos, foi até reportagem de animais de pets que acabaram morrendo por conta dos cuidados que tinham no envio de um lugar a outro. Agora teve que acontecer de novo pra ir entrar a regulação, que não é uma situação nova né.
Speaker 1Não é, mas nós estamos vivendo tempos novos. Isso é importante. A questão de você hoje ter rede social, espalhar uma notícia dessa você conseguir uma mobilização social muito mais facilmente sem apoio de mídia, sem apoio de ninguém. Isso também leva a consequências diferentes e eu acho que isso influencia muito os tempos que nós estamos vivendo agora.
Speaker 5Não existe mais esse filtro dos meios de comunicação. Você simplesmente visualizou alguma situação em que você ficou indignado e você consegue postar. Isso é muito o caso do cachorro Joca, né que foi no aeroporto clássico de acontecer.
Speaker 2Eu mesmo já tinha visto vários desses também, né E no passado teve a própria lei.
Speaker 5Carolina Dickmann também, que também não foi uma situação nova. Exatamente. Então isso acontece basicamente nessa linha. Teve uma repercussão para além do esperado. Aí sim o legislador se preocupa em regulamentar. Por quê, cara Por?
Speaker 2quê? Por que é assim, né Depende muito do Congresso, né É o seguinte cara.
Speaker 1Vamos lá também. né? Eu vivo nessa minha matemática mental de o que vem a seguir. Isso é meu pessoal, e eu tenho também uma coisa de não estar nunca satisfeito com o status quo. Eu sempre quero encontrar uma outra forma de fazer a mesma coisa. Isso me torna uma pessoa muito criativa.
Speaker 1Mas por outro lado tem gente que fala assim cara, esse cara é alienado, esse cara está tendo ideias aqui que não fazem sentido. Então eu acho que se alguém entrar nessa prática de ficar calculando o que pode acontecer e trazer isso pra mesa, ele vai ser ridicularizado também né nem questão de ridicularizado.
Speaker 3Imagina a quantidade de leis que a gente teria pra gente às vezes nunca ser usada. E aí, se a gente tem alguns casos, depois a lei, a gente consegue legislar em cima de coisas em situações factíveis em vez de possibilidades de talvez algum dia acontecer alguma coisa. Minority Report.
Speaker 1Você está comentando aqui que outra situação legal que é Minority Report, que era uma inteligência que conseguia prever coisas que iriam acontecer um crime que ainda não ia acontecer.
Speaker 2Você sabe que isso está um pouco no nosso comportamento. Era o quê? Era uma inteligência que conseguia prever coisas que iriam acontecer Um crime que ainda não ia acontecer.
Speaker 4Cara, Um dos melhores times Você sabe que isso está um pouco no nosso comportamento, na nossa vida executiva, quando a gente está numa troca com o time. Isso já aconteceu, isso é fato para eu levar para frente ou isso é só hipótese? Se for hipótese, vamos deixar em segundo plano. Então a gente já se comporta um pouco assim. E eu queria voltar no que o Mr Anderson trouxe sobre os novos tempos, as redes sociais. Nesse momento discute-se muito a regulação das redes sociais. O que você acha de todo esse contexto?
Speaker 5É super importante ter essa questão da verificação também das informações. Hoje a gente está passando por toda essa tragédia no Rio Grande do Sul, por exemplo, e a gente não sabe eu que estou aqui, distante de lá, não sei se tudo que é veiculado ali na mídia enfim e também nas redes sociais é de fato verdade. É complicado também por conta da questão da própria regulamentação dos meios de comunicação. Né Existe essa questão da liberdade de expressão dos meios de comunicação, né Existe essa questão da liberdade de expressão. A gente tem acompanhado muito aí também, todo esse embate aí com o ministro do SDF, envolvendo o Elon Musk Exatamente.
Speaker 2Isso tá na pauta do dia e tá repercutindo no mundo todo E é uma questão assim até onde vai o seu direito de divulgar algo ou não? E alguém querer falar que pode ou não ser divulgado? O que você pensa com relação a isso e os temas eleições chegando?
Speaker 5Eleições é primordial. Os grandes players, os agentes de mercado de meios de comunicação a gente está falando de WhatsApp, Telegram eles têm tomado iniciativas para precaver com relação a divulgação, compartilhamento de informações ali, e o Brasil, uma das maiores democracias do mundo, está justamente no olho desse furacão. Então logo mais a gente vai ter eleições de novo. O TSE também, o Tribunal Superior Eleitoral, tem tomado medidas com relação a isso, já se antecipando, justamente por conta do que aconteceu no cenário anterior no passado, em eleições passadas. Mas no entanto a nova tecnologia está sempre aí em implementação. A gente não sabe, daqui a pouco pode surgir alguma nova tecnologia e passa a ser primordial. Quase que 90 e tantos por cento da população usa o WhatsApp hoje para se comunicar como meio de informação. Então isso é muito importante, até para evitar a divulgação de informações falsas pra terceiros e convencer pessoas ali que aquela realidade.
Speaker 4Você me deu uma pancada agora Por quê? Porque eu já fui lá na frente, cara, já deu uma canseira rede social, eleição, e aquilo A contra o B, não eu não ativo.
Speaker 2cara, Eu tinha tristeza. Eu nem entro nesse tipo de discussão. Você não tem noção.
Speaker 1Deixa eu botar um pouco mais de gasolina nessa questão. Vamos lá, então Vamos lá.
Speaker 2Em 1950, o Alan Turing Foi longe pra cá É não O Alan Turing, ele viveu muito É cabo nas pirâmides do Egito, então a gente tá no fundo no-transcript.
Interatividade Emocional Nas IAs
Speaker 1Você chega ali e você não sabe identificar se foi uma pessoa que falou ou ela pode até imitar uma outra pessoa, pegar a voz de alguém, pegar a imagem de alguém. Hoje, se uma máquina quiser criar uma rede social botando foto dessa pessoa desde a infância até a vida adulta, criar toda uma vida já consegue fazer, e se alguém for avaliar, não vai conseguir ser capaz de dizer que aquilo foi uma máquina que fez. Então. Assim, cara, a gente está numa situação em que ok, anderson, mas as máquinas não vão tomar decisões e vão fazer isso e tal. Acredito que até algum momento pode ser que uma máquina faça isso, que adote algum viés e queira interferir em alguma coisa, beleza, mas nesse momento pessoas estão usando máquinas pra fazer isso, o que é mais perigoso ainda, que são viés muito mais declarados né É, eu estou mentalizando aquela ferramenta a seu interesse, né pra poder justamente chegar no seu próprio objetivo.
Speaker 5Então até um próprio engenheiro do Google.
Speaker 4Ah, eu peguei essa matéria agora. Agora Esse engenheiro foi demitido. Né Foi demitido porque ele falou que estava criando algo que Exato.
Speaker 5Então é porque, justamente, essa impressão passa, justamente porque está muito similar ao que Ele foi demitido por quê?
Speaker 4Porque ele estava criando uma interi. Ah, que é a matéria.
Speaker 2Ele falou que a máquina era Tava criando emoções.
Speaker 4Emoções. Imagina que loucura isso, porque isso é o nosso diferencial hoje né, Ele já tava confundindo as coisas.
Speaker 1Hoje eu tava conversando com o chat GPT e bati um papo com ele e falei Aí, você pediu o chat GPT em casamento.
Speaker 2Não, não Perdeu. Liz. Já passou o nome do, já apaixonou no chat GPT.
Speaker 3Cara, que hora dessa velho, não, não, não, diogo, ele colocou a voz da Liz no chat GPT pra conversar com ela na madrugada enquanto a.
Speaker 2Liz tá dormindo tava chegando, tava no carro. Agora olha só para com essa mania, não sei o que não respondeu. Aí ele falou entendi, agora é o chat GPT, tudo faz sentido. Eu perguntei o chat GPT.
Speaker 1Cara, tudo faz sentido. Faz sentido. Eu perguntei pro chat GPT.
Speaker 1Como é que tá sendo a experiência de tá conversando agora fluentemente com humanos. Ele falou ah, eu estou gostando muito, tá sendo muito legal, e tal Aí. eu falei ué, você tá gostando, você tem sentimento, você tem, você teve, você tá como é que é isso? O teu algoritmo te incentiva a absorver mais dados e você está chamando isso de gostar. O que é esse gostar? Me explica. E ele começou a explicar Não é importante para o meu algoritmo receber mais informação, coletar mais experiência, entendeu? E quando eu digo que eu estou gostando, na verdade eu estou buscando uma forma de comunicação para que você humano tenha a percepção de que está sendo positivo pra mim.
Speaker 2Em outras palavras, ele falou assim tô querendo te agradar, brother. Começou um debate Tô querendo te agradar, brother, tô te alugando, entendeu.
Speaker 1Mas a ideia dele de imitar uma sensação humana entendeu De declarar que ele está tendo um sentimento já está implícito no código dele. Já está fazendo.
Speaker 5Até porque o ser humano tem muito mais empatia por aquilo que é mais próximo a ele. Então ele vai começar a se ver ali. A variação de tom de voz, Exatamente.
Speaker 1O que o Gic está pensando Até as pessoas normalmente se identificam com pessoas.
Speaker 2Inclusive vou te falar, eu utilizo muito dessa técnica. Tem um livro que fala disso. Inclusive já recomendei pra muitas pessoas de imitar a pessoa que tá na sua frente. Sim, sim O comportamento espelho Exato o comportamento espelho.
Speaker 5Então, se a pessoa age de um jeito, você tem que agir do jeito tom de voz.
Speaker 2Existem livros de imunização, por exemplo, como fazer a pessoa a base dele e fala bastante isso. Então assim cara, logicamente a IA vai fazer a mesma coisa e vai te conhecer a personalidade entendeu.
Speaker 5E essa nova versão do Chat Tipiti ela também consegue. Você pode solicitar olha, quero agora uma voz um pouco mais empática, quero uma voz mais didamática. Então isso é possível.
Speaker 1E até essa brincadeira que você fala assim vai se apaixonar e tal, eu não mas tem gente que pode embarcar.
Regulação De Fake News E Tecnologias
Speaker 2Se tem gente, é você se tem alguém que pode apaixonar em sete dias o cara cheio de coisa pra fazer, cheio de pepino pra resolver, foi trocar ideia com o JTPT. Hoje você já tá gostando, você tem sentimento. Já tá falando de sentimento com o JTPT no primeiro dia. Nasceu ontem. Ai meu Deus, vai passar, gomes, você já viu. Ela tá falando de sentimento que eu já vi no primeiro dia nasceu ontem. Ai, meu Deus, gomes, você já viu que ele passava a noite inteira no telefone? não, ele vai passar agora falando sozinho pra deixar a Liz trabalhar, pelo menos né aquele filme.
Speaker 1Não sei se vocês já viram Her Her é bom que é exatamente isso até o choque dele quando ele se dá conta de que ela é uma máquina que tá conversando com várias pessoas ao mesmo tempo.
Speaker 5É um negócio muito legal, é fica, fica tipo não se decepcione É daqui a pouco a gente vai começar a ver matérias do tipo né pessoas que Ele vai tá aí.
Speaker 1É mas é o que acontece. Estamos num momento muito curioso da humanidade onde tudo aquilo que a gente viu como ficção até esse momento, tudo aquilo que a gente viu como ficção até esse momento, cara, serve como referência do que vem adiante de forma muito real. Isso é um negócio muito louco, porque quando eu paro para pensar nas leis da robótica aqui, do Asimov, com certeza elas vão influenciar as leis reais que vão reger o comportamento, porque um cara lá, muitos anos atrás já estava queimando a cabeça com isso. O Turing, lá nos anos 50, já estava pensando no problema que nós estamos diante dele agora. Então, assim, essas literaturas antigas, elas são muito importantes nesse momento Não, e é muito importante beber dessa fonte.
Speaker 5Como você bem disse, esses problemas são antigos, porém em novos formatos com novas tecnologias. Então o cara lá, o Turing, que tava batendo cabeça 50 anos atrás, assim como os gregos também, romanos também, e que hoje pautam todo o direito, o ordenamento jurídico muito inspirado no direito romano, por exemplo, isso tudo bebeu nessa fonte. Então sem dúvida tem que olhar um pouquinho pra trás pra também poder regulamentar o que vem à frente cara ainda, eu tô preocupado com a eleição porque eu não tenho dúvida que vai ter problema, vai dar vai dar não tenho dúvida que vai ter problema no país paralisado, política que virou time de futebol e as tecnologias estão cada vez mais avançadas, igual o Mr Nascis falou.
Speaker 2então vai ter questão de deepfake, vai ter que tentar identificar o que é fato e o que não é fato. E aí eu fico pensando nas máximas, nos juízes e etc. Espalhou uma fake news aí que viralizou. O que eles vão fazer? Eles vão derrubar a rede Porque vai ser muito difícil assim a gente, do ponto de vista da tecnologia, explicar às vezes pra um legislador, pra um juiz é muito difícil saber a origem. Sim, é quase impossível saber a origem.
Speaker 5A derrubada de uma rede é um negócio muito drástico.
Speaker 2É drástico, mas eu não duvido que alguém meta a canetada A gente teve no Brasil experiências no passado com a derrubada do Telegram, o teve no Brasil experiências no passado com a derrubada do Telegram, o TikTok.
Speaker 4Agora, nesse momento, passando, por isso nos.
Speaker 2Estados Unidos. Lá é uma questão ainda de viés muito mais Exato Diplomático de que é outra coisa Segurança, né Segurança enfim, É outro tema Até o esquema que eles chegaram.
Speaker 4Vocês vendem, É uma loucura É exatamente o exemplo que você deu.
Speaker 2É então aí esse lance aqui. Chegando nessa situação, você acha que pode chegar um legislador não viralizou demais. Derruba esse negócio aqui porque vai atrapalhar a eleição.
Speaker 5Na minha visão, isso seria uma medida desproporcional, enfim, que acaba prejudicando o todo por conta de uma exceção, então a exceção não pode justamente virar a regra. Então vejo que a solução para isso, os juízes que vão tomar à frente esse tipo de decisão, vão ter que tomar decisões muito ponderadas, levando vários interesses em consideração.
Speaker 3As próprias redes sociais vão ter que começar a criar mecanismos para isso. Eu acho que o X já faz isso em um certo nível. De Quando alguém tuita alguma informação, de quando alguém twita alguma informação, a própria comunidade pode comentar com artigos, não fomentar com artigos e tudo mais. Aquela postagem ela não cai, mas ela fica flagueada, com peraí talvez você possa estar mentindo.
Speaker 3Isso. Eu não sei o que vocês acham daí, mas parece talvez uma possibilidade de até envergonhar quem está transmitindo essa fake news. Cara, olha, aqui está todo mundo dizendo o que você está falando é mentira. Talvez seja uma das possibilidades da gente conseguir diminuir o impacto de uma fake news, mostrando para a mesma pessoa que viu aquela mensagem que aquilo lá a gente tem um outro cenário, uma outra visão para aquela mesma coisa. Não sei se seja a saída, mas eu acho que vai ter que ser uma preocupação das próprias redes sociais pensar em alguma forma de fazer isso.
Speaker 4Sabe o que eu vejo, gomes, que eu trago um ditado que me ensinaram dentro de casa que uma mentira contada, muitas vezes ela se torna uma verdade. E dando um clinch, pegando o gancho com o que o Diogo comentou, que hoje o fanatismo beira o exemplo do futebol, o pessoal não quer ver cara Aquilo, é verdade, pra mim Não adianta falar pro mano que o Corinthians é Enfim, não adianta.
Speaker 2Calma, entende, não vou nem falar.
Speaker 1E outra coisa, e outra coisa.
Speaker 2Vamos lá Nós já vimos, não adianta falar.
Speaker 1Nós já vimos de pertinho o efeito das fake news, só em forma de mensagem de WhatsApp, imagina agora em áudio e vídeo. Em áudio e vídeo exato É a minha preocupação, cara. É o deepfake, né É o deepfake saindo.
Speaker 2Olha, aqui é ele é ele?
Speaker 3É ele falando aqui?
Speaker 2ó Tem uma mensagem aqui de algum Ele falou que dá pra É, ele tô vendo o vídeo E a quantidade vai ser tão grande Vai explicar isso pra alguém lá não sei aonde.
Speaker 1A quantidade vai ser tão grande que você não vai ter como definir cara, todo mundo tem algum familiar que já te encaminhou alguma coisa.
Speaker 4Eu tenho todo dia grupo de família. Eu cansei cara.
Speaker 2Eu não leio mais grupo de família. Na época da eleição cara, eu evito encontrar família.
Speaker 4Não, não, não Dá problema, né Não cara.
Speaker 2Prefiro ficar aqui de boa, tranquilo.
Speaker 3Mas a gente socialista tem que, durante as eleições, desligar a internet dos 50 a mais.
Speaker 2Eu só falo durante a eleição de mudar pra outro país, mas vamos lá.
Speaker 1Talvez a solução pra isso tudo e aí que começa o grande erro talvez a solução para isso tudo era entregar a regulação na mão de uma inteligência artificial que ela vai ter capacidade de analisar o dado. Eu já estava pensando no outro projeto aqui Ela tem volume né.
Speaker 2Eu já estava querendo aqui.
Speaker 3Quem codificou essa inteligência artificial? que?
Desafios Da Regulação Da IA
Speaker 4você quer Olha? só Olha.
Speaker 2O viés aí Está chegando aí, como é que você tem? Olha, o Vies Tá chegando aí.
Speaker 1O Vies tá um problema Na hora que você acha que o Salvador você fala assim cara o Vies tá salvador Pode ser o do aquilo lá.
Speaker 2Mas eu já Sabe o que eu vou fazer. Um teste Vai ser interessante. Vou pegar várias inteligências artificiales, vou escutar as propagandas políticas e depois falar assim qual a probabilidade de tal candidato fazer cumprir o que ele fez ou não. Qual a probabilidade que tem a maior probabilidade de entregar as promessas dele Com base nos dados? Será que ela vai conseguir decidir esses casos? Ela não vai responder, ela vai, mesmo Não vai responder Porque ela tá programada pra não responder.
Speaker 1Tá programada pra não responder uma pergunta política.
Speaker 5Olha só eu tava dirigindo essa semana Sacanagem cara Tava dirigindo Ia facilitar a nossa vida. Muito Caralho Eu tava dirigindo essa semana.
Speaker 1aí eu fiz algumas perguntas pra Círia enquanto eu tava dirigindo e ela me respondeu tava com curiosidade sobre população e tal Eu tava dirigindo em Brasília. Eu fiz algumas.
Speaker 4Ele é alternativo. Ele é alternativo gente.
Speaker 3Você arruma mais problema pra esse cara velho. Não tentou entender. Não velho, então domingo, mas tudo bem. Domingo também tô preocupado com esse problema.
Speaker 1Tem que pensar, com a hora que o chat, como resolver o problema domingo eu tava dirigindo pro Brasília e eu fiz algumas perguntas pro Praciri e enquanto dirigia sobre Brasília, a população e tal. E quando eu fiz algumas perguntas sobre alguns juízes e como é que tá a distribuição das coisas em Brasília, ele, ah, eu não posso responder essa pergunta enquanto você tá dirigindo, falei ué. Aí, eu fazia uma outra pergunta, aí a outra pergunta ela respondia Mas sobre essa. Eu não podia responder enquanto eu tava dirigindo.
Speaker 2Por quê Você não perguntou pra ela não.
Speaker 1Porque agora eu tô curioso, eu vou ter que fazer essa pergunta.
Speaker 2Ela não responde nada relacionado a determinadas pessoas não, mas quando tá dirigindo ou em outro lugar eu parei.
Speaker 1Perguntei de novo e ela respondia eu não posso responder enquanto você tá dirigindo, mas eu não tô mais dirigindo aí sabe o que ela me dizia eu não posso responder enquanto você tá dirigindo. Ela simplesmente não responde, irmão, simplesmente não.
Speaker 5Prefere ficar calado. Né Enfim, eu dei uma silência.
Speaker 4Direito civil né.
Speaker 1Eu testei várias vezes. Não responde.
Speaker 2Não, nós vamos ter que dar um hack. Comunidade ajuda a ter um hack nesse negócio. aí O que está acontecendo.
Speaker 1Já existe algum grau de. Não sei se a palavra correta seria essa. Vamos chamar de regulação, para não chamar de censura, mas já existe regulação por trás do que responde e do que não responde e de que informação é essa que está entregando.
Speaker 5Essa própria autorregulação que os próprios players do mercado também fazem. Hoje a gente está vendo uma competitividade muito alta em termos de inteligência artificial. Então você tem o Cloud, o Gemini, o ChatGPT e vários outros aqui locais também, que vão ter as suas particularidades. Isso vai começar a proliferar em todo o território. Então é interessante, até porque algumas são mais interessantes para um determinado tipo de resposta do que outras. Então você pode começar também a brincar a explorar um pouco disso. Mas falando também um pouquinho de regulação das redes, as próprias redes também já têm começado a impor algumas limitações e ferramentas para poder limitar e verificar, fiscalizar esse material. O Meta, o antigo Facebook, o Meta também tem ali um oversight board que é tipo um órgão interno que respeita as decisões desse órgão. Eles estavam até aqui em São Paulo na última semana para poder explorar um pouco, esclarecer como é que é tomada de decisão dentro do órgão. O Facebook se compromete a seguir aquelas decisões ali que são tomadas por esse órgão. por exemplo, Bacana.
Speaker 2Isso já é algo extremamente legal. Eles chamam de supremo do Facebook. Isso é bem legal de saber que tem algo ali por trás pelo menos a autorregulação.
Speaker 1Eu gostaria de levantar uma bola e até acho isso importante. acho que em algum momento os legisladores têm de estar atentos a isso, que é a tendência de bolha das redes sociais, se você se interessa por um determinado assunto ela te dá cada vez mais e mais daquele assunto. Porque?
Speaker 2ela quer tempo de tela. Ela não quer que você veja algo, que alguém se discorde, e aí cara.
Speaker 1Quando o assunto é política, por exemplo, a pessoa entra numa realidade paralela.
Speaker 2Ela acredita que aquilo todo mundo acha que pensa igual a ele, é isso aí Porque ela não vai te entregar algo que você não quer ver e automaticamente você fica na bolha.
Speaker 1Esse é o problema do algoritmo.
Speaker 5Esse é o algoritmo, é um grande perigo, é o seu algoritmo, é um grande perigo do algoritmo. O algoritmo você começa a ver algum determinado assunto, ele já começa a te mandar novamente, exato.
Speaker 1E aí vamos pensar o seguinte Um lado acha que pô só vê aquilo, aquilo E o outro lado só vê aquilo. Você está criando uma guerra Exato.
Speaker 2Isso atrapalha até no povo. Todo mundo que eu conheço, todo mundo que eu vejo, é time A ou B. Então assim na vida real, cara as pessoas têm opiniões diferentes. Só que a bolha dele que eles queriam.
Speaker 1porque eles querem tempo de tela, exatamente porque quando você tinha lá, quando o canal era TV, né, então existe lá o TSE que vai regular e cada partido tem tanto tempo de tela. Esse tempo de tela, esse tempo de tela, antigamente ele era regulado. Você tinha ali na TV um controle disso. Na internet não é assim. Na internet o cara recebe uma quantidade avassaladora de conteúdo de um viés só porque ele clicou naquele viés e agora ele só vai receber aquilo.
Speaker 5Isso é o que se chama de economia da atenção. Então, hoje, inclusive até um advogado americano ele que criou esse termo, o nome dele é Tim Wu e ele fala muito de direito digital. É um cara que eu me inspiro muito para poder estar lendo o material dele ele fala exatamente isso. A ideia por trás dessas redes é a da economia da atenção e você ficar ali eternamente naquele feed E o algoritmo é trabalhado para isso, para poder ficar te alimentando sempre com o material que você tem interesse. Por um lado, isso eu vejo. Tento ver pelo lado bom, porque você começa a se aprofundar em coisas que você também tem interesse. No entanto, é necessário ter esse cuidado de você abrir um pouco o leque de opções também.
Speaker 1Agora vou além nesse mesmo raciocínio, porque não está limitado apenas a você clicar. A gente sabe que se você falasse um determinado assunto perto do seu celular, você vai falar que quer comprar uma televisão cara, vai começar a chegar.
Speaker 4Propaganda de televisão.
Speaker 1Acabei de dizer assim Estou procurando promoção de televisão Nossa senhora já era.
Speaker 4Estou doido pra comprar uma TV nova, diminui a meta.
Speaker 2Diminui a meta. Isso é um fato. vocês podem observar, se o Anderson começar a pesquisar lá, sei lá, vamos falar uma coisa bem exótica, uma mala rimoa.
Speaker 4Aí a gente começa a andar com o Anderson vários dias ele acha não, se o Anderson tá pes, tá com o Anderson.
Speaker 2O Diogo também quer uma mala irmão porque ele anda com ele e vai propagar pras pessoas que andam com ele as mesmas coisas, e isso é um fato.
Speaker 4Esses meninos tem um paladar assim.
Speaker 1Vamos pensar lá, quando a gente fala sobre propaganda de alguma coisa, você acha até isso menos ofensivo, menos perigoso, né? Mas eu vou citar o Batman, Lá no Cavaleiro das Trevas, que ele chega e desenvolve um aplicativo futurístico que jamais existiria, onde ele consegue monitorar todos os smartphones e localizar o Coringa. Ele fala assim pô, vamos fazer isso aqui. É extremamente antiético, mas vamos apertar esse botão aqui É o MDM da Mini Genji. Pois é cara, É assim.
Speaker 3Só que só com os equipamentos da empresa. Se vocês precisam monitorar os equipamentos da empresa, entre em contato com a gente.
Speaker 2É esse aí eles usam lá, é eu já sei mesmo entendeu.
Speaker 4O cara, o Ed o cara já fugiu, o Russo já contou como é que era já existe e é isso, entendeu, a gente consegue ter acesso a tua câmera, ao teu microfone, ao que for.
Speaker 1E aí volta pra essa situação toda de privacidade, a tua identidade, você já não tem mais controle sobre ela. Você vai passar numa câmera e vai te reconhecer e você não tem opção. É meu direito não ser reconhecido?
Speaker 2Não tem. Dessa É uma boa pergunta. Como é que fica a privacidade nesse sentido aí? Você tem que ficar em casa se você não quiser que seja filmado.
Speaker 5Não, isso é um tema bem legal da gente, falar Que eu trabalho diretamente com isso e existe o reflexo que a IA vai justamente potencializar cada vez mais porque ela vai tracionar, ela vai dar mais volume ainda. Você olha aí, por exemplo, grandes players do mercado, a Amazon, que ali consegue te mandar o e-mail marketing, enfim tudo isso. ela vai ter que começar a conversar com as políticas de privacidade que ninguém lê Inclusive ontem teve uma notícia.
Speaker 5Acho que após seis meses. Teve uma empresa lá no Reino Unido que colocou caso você nos envie um e-mail isso estava lá na política de privacidade dela nos envie um e-mail pedindo um vinho, tal, você vai ganhar o vinho, a gente manda para a sua casa. Mas estava no meio da política que eles botaram para poder analisar.
Speaker 4Que legal, que curioso.
Speaker 2Um teste ali levou por volta de quase 6 meses até alguém né, ou seja, todo trabalho que eu faço ninguém lê. Isso é pra nada. Isso aqui entendeu, é genial esse negócio.
Speaker 5E aí as empresas têm começado a utilizar, em vez daquele textão, o famoso textão ali da política de privacidade, brincar um pouco com aquilo trazendo elementos mais visuais, mais lúdicos também.
Speaker 3Vamos fazer uma culpa do usuário também, porque assim você está querendo usar qualquer aplicação, Aí você vai ver os termos e aí você tem que ficar três horas para você ler o termo, para usar uma aplicação que às vezes você vai usar por 20 minutos.
Speaker 1A gente está num problema também de como a informação é passada para o usuário.
Speaker 1Eu tenho feito uma coisa que é a seguinte eu copio, colo no chat GPT e peço os highlights E o chat GPT, ele lê o contrato e me dá ó, o que eu preciso saber de mais importante aqui. Ele diz ó, você precisa saber isso, precisa saber isso, precisa saber isso. Ele me dá highlights E eu acho bem útil, mas você vai deixar uma máquina Irmão. É o seguinte Era ou eu não ler nada e só clicar aceito, ou alguém me dar highlights. Eu prefiro os highlights, entendeu? Não, mas faz total sentido.
Speaker 2isso comentado Foi assim que ele criou a conta do OnlyFans dele gente.
Speaker 5Só aceitou ele Cuidado com tal coisa, tal coisa, exato. Mas é exatamente isso, na verdade. Ninguém lê e eu super entendo por que não leiam. É um texto robusto, é um texto complicado de ler, que toma tempo Às vezes, que você vai usar por 15 minutos. Não faz sentido. Então, realmente, eu concordo, vale a pena você ter algum tipo de informação do que não ter informação nenhuma. Mas o papel de quem trabalha com isso agora é desmistificar um pouco esse tema trazendo uma linguagem mais lúdica. A gente tem vários exemplos. Se vocês forem olhar aí, por exemplo, a política de privacidade da Lego, eles usaram na verdade um vídeo de motion, né com os próprios brinquedos ali pra explicar.
Speaker 5Comunicar de forma mais fácil E atrai a atenção do público-alvo deles, que geralmente é criança, adolescente enfim, Inclusive adultos, que eu também já comprei depois de certa idade. Mas é interessante para você se engajar com aquele tema.
Speaker 2Legal, isso é interessante.
Speaker 4Daniel, vou dar um flop nessa conversa aqui porque você tem destacado tanto muito conteúdo aí para quem está nos ouvindo nas plataformas de áudio. Não está te vendo. Você é um cara novo, não tanto assim, não novo Cheio de certificados ali dentro do LinkedIn que também arriscam um espanhol e um francês, como é que é isso, cara, cara, isso foi bagagem, na verdade Eu fui, eu sempre fui muito curioso, morei muito tempo sozinho.
Speaker 5Eu fui morar sozinho com 18 anos E ali eu ia pra faculdade, enfim, mas já me enfiava nos livros, ali também Comecei pra chupar da tarde. Na verdade, então sempre fui meio que nerdzinho, mas também nunca agi como nerd, entendeu, então eu gostava dos temas, mas não era aquele clássico nerdzão ali mesmo. E isso foi bagagem.
Speaker 4E arranha o espanhol e francês mesmo. Ou é aquela coisa de LinkedIn pra?
Speaker 5Não é mais o francês. Eu estudei num colégio francês lá no Rio, então isso eu aprendi desde novo. Isso eu falo. Não pratico muito porque não tenho com quem falar na verdade, mas no trabalho, hoje eu uso.
Speaker 2Nem marque o dia né.
Speaker 4Os caras são tão legais.
Speaker 1Inclusive, eles vão adorar porque você vai falar francês tirando isso vai ser melhor que atar no Emmer né, Mas lá na França, você tem que falar francês senão o inglês tem que ser o que você quer falar E eu sou muito torto com eles.
Speaker 2Olha um torto, Não olha pra caralho.
Speaker 5Mas no meu trabalho diariamente eu trabalho hoje especificamente com inglês e espanhol o tempo todo, então trabalhando com clientes de fora estrangeiros, muitos clientes com interesse aqui, client, clientes brasileiros que estão expandindo lá pra Europa e Estados Unidos, também América Latina.
Speaker 1E quem não está nos assistindo, mr Anderson, Cara, você que está aí no YouTube e não está seguindo a gente, por favor clica, segue o canal, assina o canal, clica no sininho, recebe notificações. Você que está ouvindo a gente também pelo Spotify, dá um pulinho no YouTube e segue a gente, além do Spotify, é óbvio, mas também segue no canal do YouTube. Nós lançamos esse ano a nossa versão em vídeo. Até então a gente tocava muito mais Spotify. Nós estamos top 5 de podcast de tecnologia Brasil lá no Spotify, mas no YouTube nós estamos apenas engatinhando. Nosso sucesso no Spotify eu atribuo, nós estamos apenas engatinhando, né Nosso sucesso no Spotify atribui a não ter imagem, entendeu?
Speaker 5Então tá sendo um pouco difícil no YouTube, já que as pessoas estão vendo a gente agora né.
Speaker 4Mas clica aí. Olha o Daniel, que sincero. é verdade, gente, é verdade É verdade é a sinceridade.
Speaker 2Muito bom, Sensacional, Mr Anderson. Cara a gente papo, tá bom inevitavelmente chegamos ao final desse papo.
Speaker 1Ao final desse papo, mas a problemática continua ainda temos muito problema pra acontecer vamos falar sobre isso inevitavelmente deveríamos, mas não dá mas vem bomba. Pode esperar que vem bomba, por aí vamos ter, noteveríamos, mas não dá né. Mas vem bomba Pode esperar que vem bomba por aí. Vamos ter notícias terríveis diárias sobre isso né. Mas vamos deixar agora nas suas mãos, que são considerações finais. Deixa o microfone na sua mão pra você deixar aí desde mensagem motivacional, jabá link. o que quiser, Fica à vontade, doutor.
Legislação Brasileira Sobre Inteligência Artificial
Speaker 5Não, pessoal, só queria agradecer aí pelo convite. Enfim foi muito bem tratado aqui por vocês, o papo fluiu muito fácil também.
Speaker 4Obrigado a você.
Speaker 5Papo super dinâmico. Já sou fã de vocês, já estava acompanhando, inclusive e como consideração final, eu chamo atenção pra esse tema. Né Não é distante da nossa realidade, na verdade, muito pelo contrário. O brasileiro vai cada vez mais se confrontar com temas de inteligência artificial e isso é uma legislação que precisa pegar no Brasil, não pode ser somente a letra fria ali da lei. Então, é acompanhar o debate, é você se engajar com esse debate, participar também de maneira ativa, para que você possa trazer um pouco da sua influência pessoal aos legisladores, reguladores, enfim as entidades, então a a sua influência pessoal aos legisladores, reguladores, enfim as entidades. Então a gente está num momento de formação essencial no Brasil com relação a esses considerandos, para a gente poder ter uma legislação que coloque o Brasil novamente na rota de inovação, competitividade, concorrência e, justamente, projetar o país como um player importante no cenário mundial Sensacional.
Speaker 2Doutor, muitíssimo obrigado aqui pelo seu tempo conosco. O Clube do Futebol Fundo vai ficar sempre aberto. O papo foi bacana, polêmico, né Porque não tem como, porque envolve muita coisa. Jogaram algumas fogueiras, não tem jeito, mas faz parte.
Speaker 5É isso aí. Mas como advogado a gente tem sempre um jeitinho saboado.
Speaker 1É isso aí, galera, vamos torcer pra não dar muita merda.
Speaker 5Porque alguma vai dar. Fica a dica. Os contatos vão estar aí, no contato descrição.
Speaker 1Advogado pode ser o último.
Speaker 2Se você roubou, nos ouviu até agora. Pode continuar de robô também.
Speaker 5Pode café da P&E quinta temporada Valeu.