PODCAFÉ DA TI

#178 - Guilherme Henrique - Como os hackers estão evoluindo tão rápido?

April 23, 2024 podcafe.com.br Season 5 Episode 178
PODCAFÉ DA TI
#178 - Guilherme Henrique - Como os hackers estão evoluindo tão rápido?
Show Notes Transcript Chapter Markers

Te hackear nunca foi tão fácil!

Neste episódio do PodCafé da TI, mergulhamos em um mundo em constante evolução, onde os hackers estão cada vez mais engenhosos. Guilherme Henrique, Head de Segurança da Informação e Infraestrutura e Sócio do Grupo Primo, nos ensina como nos proteger nessa nova fase disruptiva da tecnologia em que a sua identidade digital está em jogo.

Vamos além das barreiras digitais, explorando o impacto da aliança da inteligência artificial e da engenharia social. Não perca essa oportunidade única de ficar um passo à frente das ameaças digitais. Já disponível em todas as plataformas de áudio. Não fique para trás, atualize-se agora mesmo!

Participantes: 
Guilherme Henrique – Head de Segurança da Informação e Infraestrutura e Sócio do Grupo Primo
Dyogo Junqueira - CEO da ACSoftware 
Guilherme Gomes - Diretor ACSoftware 
Anderson Fonseca - Diretor ACSoftware

PodCafé da TI é um podcast da ACSoftware, seu parceiro ManageEngine no Brasil.
ACSoftware: https://www.acsoftware.com.br/manageengine
ACCyberSec: https://accyber.com.br/

Web: https://podcafe.com.br/

Instagram: https://www.instagram.com/acsoftwarebr/
Linkedin: https://www.linkedin.com/company/acsoftware
Twitter: https://twitter.com/acsoftwarebr
YouTube: https://www.youtube.com/c/PODCAFEdaTI

Speaker 1:

Onde, Café da PEI, quinta temporada. Pode tá certo, Pode tá certo.

Speaker 3:

Muito bem, muito bem muito bem Estamos começando mais um PodCafé da TI, Podcast tecnologia e cafeína. Meu nome é Anderson Fonseca, eu sou o Mr Anderson e hoje vocês vão conhecer o único red de segurança do Brasil que não tem limite de budget.

Speaker 2:

Aqui é Guilherme Gomes da C-Software e hoje eu vou falar comigo mesmo Sensacional Diogo Junqueira, ceo da C-Software. Já agradeço demais nosso convidado e vou deixar ele mesmo se apresentar.

Speaker 1:

Fala pessoal, tudo bem, eu sou o Guilherme Henrique, sócio do Grupo Prima atualmente. Por isso a brincadeira do Bunch né Brincadeira não é sério velho, Não é, não é. Bunch infinito. não, E pô sou responsável pela área de segurança e informação, infraestrutura, cloud, IT, Ops, privacidade, então faça algumas coisas aí relacionadas à tecnologia, aí no Grupo Primo.

Speaker 2:

Sensacional.

Speaker 3:

Muito bom. Primeiro, antes de a gente começar, eu sempre gosto de convidar nossos ouvintes que estão lá no Spotify, que nós temos. Nós somos cara, nós somos top 5 nacional em tecnologia Demais Lá no Spotify. Isso é um negócio fantástico. Só que a galera está só no Spotify. Nós começamos agora com o YouTube.

Speaker 2:

Nós estamos dividindo muita generosidade, estamos dividindo nossa beleza com o músico você que tá no Spotify, você não vai ver como é que o Anderson tá pequenininho na cadeira.

Speaker 3:

Ele é quase uma criança, uma criança na cadeira.

Speaker 2:

Eu sou o mais alto mas pra caber na tela cara tá vendo agora você entende, é exato, mas tudo bem.

Speaker 3:

Galera, vamos, vai lá no canal do YouTube do Pós-Café da TI, clica, segue, liga, sininho. Ah, mas eu não quero assistir no YouTube.

Speaker 2:

Mas vai e segue a gente Queremos números E não só no YouTube também segue o Instagram da Acess Software, empresa revenda da Menedi Engine. Melhor distribuidor Corta, melhor parceiro, melhor parceiro Solução de Jets M, várias coisas que vocês precisarem. A gente tá lá à disposição pra ajudar vocês, sensacional, então vamos lá até pro pessoal aqui se situar. Né Pra gente começar com o assunto, guilherme conta pra gente a jornada do Guilherme Henrique. Pô cara, pra começar como é que você começou, em segurança e até chegar a ser reto de segurança e sócio do Grupo Primo.

Speaker 1:

Legal, muito bom, é uma grande história, uma grande jornada. Bom, basicamente eu nasci e cresci em Santo André, na cidade do ABC, aqui de São Paulo, e bom, estudei minha vida inteira em escola pública e da infância, assim, adolescência, até sei lá aos 13, 14 anos, não era tão ligado, assim digamos, com computador. Eu vejo umas pessoas hoje em tecnologia que diz que começou com 8 anos sei lá o quê Já começa a programar e se envolver com isso. cedo Eu comecei ali por volta dos meus 14 anos. Eu fazia um curso técnico especificamente em Santo André De mecatrônica. não era nem de tecnologia né E minha ideia realmente fazendo esse curso era conhecer algumas áreas, porque mecatrônica lida com várias áreas.

Speaker 1:

né Então conheci ali tecnologia. Logo depois conheci alguns fórunss e acabei conhecendo um pouco da Deep Web ali que a galera chama né Mas pô a rede Tor. então comecei a frequentar e acessar coisas ali, por curiosidade mesmo. né Pô, era um garoto, tinha 15 anos, 16. E bom, comecei a frequentar alguns fóruns. conheci aí o que chamam de segurança aí hoje em dia, mas ali pô, quando eu li, era basicamente sobre hacking e coisas nesse sentido.

Speaker 2:

né Peraí, você tava no Thor frequentando alguns fóruns, né É exato, uma coisa leve, tranquilão. de boa é começar assim de boa O que que eu faço? Não, assim a galera hoje em dia tem muita gente que quer ser hacker né ou trabalhar com segurança. Vai lá no YouTube Como hackear o Facebook.

Speaker 1:

O cara já começou certo Acaba não funcionando.

Speaker 2:

Óbvio que não, ó, não vai, não vai dar certo.

Speaker 1:

E a Deep Web é sempre uma coisa que eu falo pra galera é que a Deep Web parece muito com o mundo. Né Foi atrelado muitas coisas ruins a ela, mas é como se fosse o mundo. Tem coisas ruins, mas tem coisas no princípio. Foi criado aí pra galera fugir de ditaduras né de rastreabilidade aí na rede em geral, e como ficou muito bom nisso ser de fato um rastreável.

Speaker 1:

A galera acabou usando pra fins ali, que às vezes é o que deixa o que dá fama, né pra rede. Mas pô, aí, no começo eu comecei a ler fóruns, pô convers, no começo eu comecei a ler fóruns, conversar com alguns amigos e tal, e aí consumir realmente conteúdo de hacking, de segurança. Na verdade eu não sabia que existia área de segurança, né Era uma diversão mesmo na época estudar sobre hacking, entender como que acontecia quando alguém hackeava alguém, como que isso rolava, e aí pô, comecei a testar coisas, né. Então pô, vamos ver como funciona um keylogger. Aí instalava um keylogger na máquina, na máquina da escola. também brincava um pouco, via como era.

Speaker 2:

Pegando as redes sociais dos amiguinhos.

Speaker 1:

É fui ver como funcionava.

Speaker 1:

Ah, entendi não é, Você testou um snifferzinho lá, É só pra ver como é o método post com senha aberta, ver como é o método post com senha aberta, ver como funcionavam as coisas, fui me me apaixonando por isso, digamos assim, até que pô acho que a primeira vez que eu fiz isso em biblioteca pública não fazia ideia do que eu tava fazendo né Tava me divertindo. E bom, depois disso chegou o momento de acabar entrando na faculdade. Né Comecei a ficar mais velho, fui pesquisar, pô, tinha ciência, tinha, tava bastante claro pra mim que eu queria ir né trabalhar com tecnologia, mas eu não sabia que existia área de segurança. Então comecei a pesquisar, pesquisar, pesquisar. e aí um dia eu encontrei um curso na FATEC São Caetano.

Speaker 1:

Né pô, é uma faculdade pública e o curso era segurança e informação. E aí pô, fui fui ler a grade, né entendi ali as coisas que tinha e eu vi nossa pô. Mas isso aqui é tudo que eu leio nos fóruns, a galera falando de hacking, de criptografia, de umas paradas, isso é muito bom. Aí eu só fiquei com medo será que existe um mercado atrás disso? né, ou será que a galera faz a faculdade e vai trabalhar com outras coisas? Então eu entrei pra lá, né entrei na faculdade, comecei a fazer o curso E aí é onde começa a minha carreira profissional mesmo né. Então pô, a empresa que eu trabalhei a primeira vez foi o Atacadão. Então fiz um processo seletivo basicamente Tava no momento ali de conseguir estágio por aí em diante, grupo Carrefour Legal E consegui entrar lá era um processo bem concorrido na época.

Speaker 2:

Tinha poucas vagas, exato é difícil achar. Tempo atrás, onde a preocupação era muito menor.

Speaker 3:

É difícil achar boa vaga, é difícil achar o bom profissional, que também não é fácil no mercado. O mercado está sempre procurando pessoal, especialmente segurança, sênior, né cara. Ninguém quer isso.

Speaker 2:

É difícil alguém querer alguém ali para sim, querendo ou não cometer uma falha que seja complicado né Perfeito.

Speaker 1:

É, eu tava até tendo essa conversa hoje com um amigo porque pô é difícil as pessoas júnior, barra, estagiário entrar no mercado por causa disso, justamente o que você falou a galera procura uma figura mais senior, às vezes pra ter ali na empresa, né Principalmente se é uma startup. Às vezes você vai contratar um profissional de segurança.

Speaker 2:

Você vai contratar esse profissional Júnior ou um Senior, né Não dá, né cara Não dá, não dá, Exato Não dá, né Não tem como.

Speaker 1:

Então, pô, acaba ficando complicado ter vagas ali de Júnior e de Estagiário E acaba sobrando as vagas de Especialista, sênior, gerente e por aí em diante. Eu acho que o mercado assim tá hoje. E bom, aí entrei no. Nessa época eu já comecei a produzir conteúdo, escrever sobre hacking, sobre segurança. Eu escrevia no Hacker Culture. Um abraço pra galera do Hacker Culture.

Speaker 1:

Não falo com eles há um tempo, mas pô, foi um momento bem legal na minha carreira porque, querendo ou não, quando você produz conteúdo, escreve, estuda, escreve e realmente ensina, você aprende também. É a melhor maneira de aprender, né, cara Disparado cara, É, eu também concordo.

Speaker 2:

Ensinando mostrando ali é a melhor maneira que você tá aprendendo.

Speaker 3:

E a comunidade de tecnologia é uma comunidade muito unida, então, produzir a vontade E a segurança ainda é mais unida.

Speaker 2:

Eu te falo que é mais unida ainda do que as outras.

Speaker 1:

A gente que anda bastante. né cara Exato exato É o sistema, né cara Precisa estar unido, né cara Exato exato.

Speaker 3:

E tem que ter pra quem ligar né cara.

Speaker 2:

É exato, Tem que ter pra quem ligar, trocar experiência né, velho, cara, tá acontecendo isso aqui agora Exatamente.

Speaker 3:

Vamos lá ver.

Speaker 2:

Isso aí sensacional Exatamente.

Speaker 1:

Aí pô, continuei no Atacadão ali durante um tempo no grupo Carrefour. Aí posteriormente fui pra Ginomoto, até mesmo atraído pelo estilo do business né Pô era, tinha ali uma área industrial e tal. Então eu queria ter contato com isso, ver como que faz a segurança de uma fábrica.

Speaker 1:

Então entender isso foi legal. E posteriormente eu, estando lá, eu era sempre acompanhei o Thiago Negro ali nas redes sociais. né Eu era um seguidor dele, vi ali o seguidor do Instagram dele, vi ali as coisas que ele postava e tal Eu vi que ia ter um lançamento né De uma coisa que ele não tava dizendo qual era. Aí eu pô legal, vou acompanhar ver o que vai acontecer. Né Aí chegou o dia do lançamento, entrei no YouTube, aí ele ia lançar o que hoje pô tá bem consolidado no mercado chama Finclass, que basicamente é a Netflix dos investimentos.

Speaker 1:

Né E quando eu vi aquilo eu pensei pô, finclass é uma plataforma tipo uma Netflix, então vai precisar de alguém de segurança. Né Opa, já ficou de olho, é, fiquei de olho, falei pô interessante né Porque é um business que na verdade era uma pessoa que eu tinha ali um apreço, né Achava ali um cara legal me ensin investimento na época. Então era bem interessante. Então pô eu fui pesquisar no LinkedIn, como que tava o time de tecnologia, como que tava organizado isso pô chamei lá o Citião na época, que é o Rodrigo Gianotto.

Speaker 2:

Conheci ele na área do Drunch Equity.

Speaker 1:

Isso que hoje ele toca aí o Equity+. Né ele aí tá na frente do Equity+ E pô eu conversei com ele pô de forma super despretensiosa. Se precisar de alguma ajuda aí conta comigo. Eu sou fã aí do negócio. E aí logo em sequência ele me chamou pô cara, tô procurando alguém muito parecido com você você não quer bater um papo?

Speaker 2:

Vamos conversar sobre isso É o time das coisas foi Vamos tomar um café.

Speaker 3:

Foi foi Na verdade você não sabe, mas ele tava procurando alguém. Criança há muito tempo.

Speaker 2:

Você foi a resposta. Você foi a resposta.

Speaker 3:

Ele tava orando pra. Daqui a pouco a gente conversa. Obrigado, Jesus.

Speaker 1:

Meio direto ali pra pensar Aí, pô, conversei com ele, a gente marcou uma conversa. Ficou duas horas conversando e aí ele me fez o convite pra entrar. E aí tô lá. Vai fazer três anos agora em maio né, e acho que em agosto de 22,. Me convidaram pra ser sócio. Pô, acredito que tô fazendo um bom trabalho né Com certeza é. Se me convidaram pô. A empresa cresceu muito. Agora pô tem mais dez empresas embaixo.

Speaker 1:

Pô se for até cliente aí do Equity+ aí do Janoto E pô aí tô aí tocando algumas áreas, não só segurança agora pô meu background é todo de segurança mas obviamente segurança você acaba se envolvendo com cloud, com infraestrutura, e hoje eu também toco essas áreas aí de tecnologia.

Speaker 2:

Sensacional cara.

Speaker 3:

E aí, cara, grupo primo, você pô tá lá. Como é que foi isso, como é que foi conhecer o Thiago Nigo, que você tava assistindo, ele, pelo Instagram, e tal Todos nós né.

Speaker 1:

Não, a experiência é muito doida. Assim, quando você vê muito uma pessoa pela internet ou pela TV e vê ela pessoalmente, gera uma Cara, será que isso tá acontecendo.

Speaker 3:

Será que.

Speaker 1:

Gera uma estranheza, né. Mas pô, foi super legal, foi uma experiência muito boa. Foi até mesmo diferente do que eu imaginava, porque quando você vê alguém famoso você imagina o cara é um pouco mais reservado, não vai ficar tanto com a galera, sei lá. Mas o Thiago é totalmente diferente. Thiago, o Bruno, o Bruno Perini também, que é um sócio do grupo.

Speaker 2:

Sou fãzássio do Bruno eu sigo o Elias bastante. Ele é o cara, né Ele é o cara. Memória incrível, várias frases incríveis. É referência Muitas coisas que eu sei. assim, eu sei quase nada, mas eu sigo bastante o espaço do Pô. eu também sou um fãzássio dele. É sensacional.

Speaker 1:

E aí pô eu me vi ali, o Thiago e o Bruno sendo pessoas totalmente diferentes do que eu imaginei, que era sei lá pessoas totalmente acessíveis. Sentava ali perto de nós, tava no dia a dia trabalhando junto. Então trabalhei diretamente com ele já nos primeiros dias e percebi que pô, ele era um cara como qualquer outro, ele só era um cara famoso. Então inclusive isso é uma parada legal pra galera saber porque muitas vezes a pessoa vê ali um famoso na internet e acha que pô o cara é um super-herói, sei lá, o quê mas ele é uma pessoa como qualquer outra, né Então a galera vincula muito notícias, mas ele é um cara super 10, super gente boa e pessoal do bem.

Speaker 3:

Aí, cara, tem uma coisa bacana nisso que assim, quando você tem esse espaço de mídia, uma coisa que a gente faz aqui também, que é compartilhar uma ideia, uma visão de mundo, você começa a encontrar também gente com sinergia e você começa a atrair gente que pensa da mesma forma. Isso é uma coisa muito bacana. Da forma como o Grupo Primo vem crescendo, você vê que vai agarrando gente com sinergia e visão parecida. Né Perfeito.

Speaker 1:

É, isso é muito legal, porque o Business Grupo Primo, especificamente ele, é um dos únicos que a cultura. Tem algumas outras empresas né, por exemplo, a cultura chega antes do que a pessoa entra no. Antes da pessoa entrar na empresa, ela já tem a cultura da empresa. Tem alguns outros, por exemplo Google, por exemplo, tem uma cultura forte, amazon tem uma cultura forte. O Grupo Prima é muito parecido com isso, porque normalmente a pessoa já conhece o grupo, ela já é fã do grupo e acaba que ela já entra com uma cultura muito alinhada.

Speaker 2:

Já sabe onde ela tá pisando. Isso não é uma.

Speaker 1:

CL, treta que a gente chama. Acaba sendo uma pessoa que Ela tá super alinhada com o negócio, trabalha quando for necessário, não tem muito mimimi Não tem tempo ruim. E hoje é meio difícil achar a gente assim.

Speaker 3:

É bom ter esse alimento cultural.

Speaker 2:

Deixar a estrutura tão esposa, e a galera já chega preparada.

Speaker 1:

É muito complexo, muito difícil, e como é que?

Speaker 2:

foi pra segurança. Você começou há 3 anos atrás. O grupo cresceu muito nesses últimos três anos pra segurança e estruturar isso lá dentro Legal.

Speaker 1:

É quando eu. Eu acho que eu não comentei isso, mas quando eu fui chamado era pra começar a área, então isso foi uma das coisas que mais me Legal Pô. me chamaram a atenção né, Porque não é todo dia que você tem a oportunidade de começar a área de segurança, da segurança numa empresa, ainda mais numa empresa já com porte.

Speaker 1:

Bom, isso numa empresa já num porte legal, já com muito cliente, né Até mesmo pela base aí do Thiago e do Perini. Então pô, cheguei lá. A primeira coisa que eu fiz basicamente foi pô primeiro entender tudo que tava acontecendo, né Como que estavam ali os softwares, a tecnologia, a infraestrutura e tal. Porque imagina assim, a gente é um negócio que tem N podcasts, por exemplo, então precisa também Ter uma infraestrutura local muito robusta. A gente não tem um estúdio externo, o estúdio é nosso.

Speaker 2:

Então tem esse Aliás. Eu tive a oportunidade de conhecer lá. Os estúdios são sensacionais, É legal pra caramba.

Speaker 1:

Mas antes a gente pô inclusive aquele andar. Especificamente ele é muito novo, a gente tem ele faz sei lá dois anos.

Speaker 1:

Antes eram duas salas no mesmo prédio assim. Então tem crescido bastante e foi legal ver isso. Então, pô, quando eu cheguei não tinha área né. Então a minha ideia foi montar um plano ali. Então trouxe mais uma pessoa de segurança, que hoje está lá, inclusive o Fabrício Abraço, fabrício, me ajuda bastante aí no dia a dia E a gente começou a tocar e também também priorizar, traçar um roadmap né, porque uma dificuldade quando você monta uma área de segurança é que você vê um monte de coisa errada, um monte de problema né, e assim você precisa achar um caminho pra resolver esses problemas e se você tentar atacar tudo, você não vai fazer nada.

Speaker 1:

Então a ideia primeira foi pô criar um roadmap, pô atacar as primeiras coisas que a gente achava que eram mais importantes, mais críticas ali pro políticas, ali para o negócio. E foi assim que a gente fez e tem dado certo, aí tem funcionado. Hoje em dia a equipe tem quatro pessoas e pô roda super bem. As pessoas todas elas fazem trabalho, croc, sabem bastante infra de Cláudia, de suporte e segurança, e é isso, a gente é uma equipe bem unida e faz tudo junto, cara.

Speaker 3:

Mas aí isso é um negócio, negócio fantástico. Enquanto de trajetória de carreira sua você chega para cuidar de um departamento que não existe, é exato. Você levanta uma infra que não existe e você né. E assim é um grupo que cresce muito rápido.

Speaker 1:

Muito, muito dinâmico. Cara, Eu vim de empresas tradicionais, né A Dinomoto ia tacar na empresa, cara Extremamente A gente conhece bem a Ginomoto.

Speaker 2:

Conhece, conhece, mas são os nossos clientes em a Ginomoto.

Speaker 1:

São muito tradicionais, exato Empresas que tem mais de 50 anos. Então assim foi um choque pra mim de cultura. Foi uma coisa muito disruptiva Porque sei lá acordei e os caras compram. Uma empresa sabe diferente.

Speaker 2:

Exato.

Speaker 1:

Pô, vou precisar entender fazer o onboard dessa empresa, se tem.

Speaker 2:

Se pô, é seguro. Se não é Pronto, comprou uma outra.

Speaker 1:

É, então, é isso aí nesse dinamismo É ou criou muitas empresas internas também muito Pô é um lugar muito legal pra entrepreender. Então tem muito entreprendimento, muita gente fazendo coisas novas, então muito desafio pra se acostumar. Foi bem complexo.

Speaker 3:

Imagino Tem uma coisa legal do Grupo Primo, pelo menos o Diogo vai saber falar muito melhor disso que eu, que o Diogo teve lá com os caras, justamente vendo. mas é porque assim, na velocidade que cresce, começa também a dar maiores responsabilidades, e as suas responsabilidades foram crescendo ao ponto de você se tornar sócio.

Speaker 2:

Realmente É questão de equity, né cara Exatamente.

Speaker 1:

É o que é bom, né É, porque no final cara o equity, ele serve pra quê? Pô, se a empresa der, certo você tá junto. Mas se der errado também.

Speaker 2:

É isso aí.

Speaker 1:

Então você compra ali o risco né e pô você realmente tem esse olhar de dono né que é muito bom pra empresa e pra você também problema de perder talento.

Speaker 3:

Faz a retenção de talento. Você é dono, fica aqui.

Speaker 1:

Exatamente, exatamente. Acho que isso é uma estratégia muito boa para esse tipo de business, porque pô tem às vezes Vocês sabem como o mercado está, vocês sabem como funciona. Então pô a gente pegou as pessoas que são importantes e críticas para o nosso negócio e faz elas virarem sócios e realmente ali tem essa alneria aí do dia a dia.

Speaker 2:

Isso é muito legal, cara, mudando aqui pra questão de segurança da informação, como é que você está vendo a questão, por exemplo, das inteligências artificiais chegando? aí nessa questão. Como isso vai impactar? você pensa na segurança da informação?

Speaker 1:

Pô legal, ótima pergunta Essa semana inclusive eu um a gente tem um portal no Grupo Primo também que chama Dinheirama, que eu escrevo lá também E essa semana eu escrevi sobre inteligência artificial e segurança da informação porque de fato esse é um assunto que tá sendo pouco falado, mas é um assunto super crítico. Extremamente me preocupa bastante, na verdade, total crítico, extremamente me preocupa bastante. Na verdade Total já está sendo muito utilizado por N grupos, não só de hackers, mas de pessoas que fazem fraude no geral. Porque hoje, qual que é o ponto Um hacker, antigamente ele precisava ter um conhecimento técnico robusto, exato. Hoje em dia, pra você operar uma inteligência artificial, muitas vezes você precisa perguntar coisas.

Speaker 1:

Perguntar certo É perguntar certo, fazer as perguntas corretas, exato. Então o que que isso proporcionou Está proporcionando na verdade, e vai continuar proporcionando cada vez mais, a facilidade de um ataque complexo por pessoas com baixa capacidade técnica. Sim, isso é super, isso é uma questão super crítica e super A quantidade de possíveis criminosos cybercriminosos aumenta muito mais. Exatamente O ladrão de galinha agora consegue sei lá fazer um vídeo. Igual aconteceu recentemente. Tem um vídeo do Celso Russomano, vocês viram isso aí, eu vi O Celso. Russomano, fingindo que Fingindo não né Era um vídeo fake.

Speaker 1:

Era um deep fake É dele falando que a Polishop ia vender celulares a valores absurdos e quando a pessoa clicava no link, esses dados eram capturados aí cara é uma combinação engenhosa que é o nosso tema aqui.

Speaker 3:

Você mistura a inteligência oficial com um pouco de engenharia social e faz essa jogada e feito por um.

Speaker 2:

As vezes vamos lá o termo script kid né. Não pelo hack, é um script kid qualquer o cara olhou lá, e às vezes menos que um script kid, o estagiário de script kid o cara assistente de script, kid tá lá só sabe fazer a pergunta certa. o cara só é bom de perguntar, é ele não precisa hoje em dia ter um conhecimento técnico robusto.

Speaker 1:

Inclusive teve um caso aí em Hong Kong que pô engenharia social mais IA na veia. Que aconteceu? Foi uma pessoa de uma empresa, né ela era da área financeira. Ela recebeu um e-mail solicitando bom e-mail, mas eu acho que esse e-mail tinha sido hackeado. Inclusive era o e-mail real do CEO, né o e-mail original. Ele mandava pô preciso que você faça uma transferência de forma rápida e pra mim urgente, que eu tô precisando e tal.

Speaker 1:

Aí, beleza, a pessoa desconfiou, não fez, e aí o que que esse golpista fez Ele marcou uma reunião com ela fez uma meeting, né Fez um meeting colocou mais, acho que 5 ou 6 executivos que também eram da empresa, tudo isso, tudo de pe fake e com isso conseguiu roubar pô, acho que eu não me lembro exatamente o valor 25 milhões, 25 milhões né.

Speaker 2:

Foi lá pediu pra fazer outra cena.

Speaker 3:

O cara falou pediu de dólar, né De dólar. Ficou num segredo. essa semana no AC News Nossa, eu assisti ali.

Speaker 2:

Ó, se você ainda não assistiu ao AC News, vai lá no canal do YouTube da.

Speaker 3:

AC Software, tal da Acesoft talvez não seja tanto news. Mas é uma novidade mais legal, porque o cara é divertido, é um bate-papo sobre essas notícias, o que tá rolando de notícia isso pode escalar pra um jeito.

Speaker 2:

Isso aí é assustador, a hora que eu vi meu Deus do céu a pessoa tá ligando por WhatsApp pra mãe da pessoa sou eu preciso de 600 reais e é você ali

Speaker 3:

hoje você consegue simular a imagem e a voz né.

Speaker 2:

Loucura, cara. Até uma dica, cara. Eu vou implementar essa dica. Estamos chegando numa época que o negócio pode parecer tanta realidade. O cara lá da cadeia está fazendo isso, mas assim. E às vezes vai suar. Né A inteligência artificial pode realmente suar. A inteligência artificial pode realmente suar, igual alguém no seu familiar. A gente teve aqui com o Ciso que deu a dica que tem um código, um código do Fabricofala pra ele falar um código. Criar um código, alguma coisa, porque?

Speaker 2:

é um negócio da A senha, da família A senha da família pra se realmente, se for verdade, falou de dinheiro fala isso. Tipo assim. Ah ah, abacate entendeu Mais ou menos.

Speaker 1:

Assim É a pessoa perguntar pô a senha, é qual É a pessoa fala? É meio azul, alguma coisa assim. Nossa é isso é muito, é uma coisa muito boa de ser feita.

Speaker 2:

Então a gente tá chegando né, cara.

Speaker 1:

Exato E não dá pra distinguir você olha, igual pô.

Speaker 3:

Pois é, mas essa é a loucura. Fundamentalmente as pessoas falam nós. Então, numa escala absurda, nós temos essa exposição em áudio e vídeo que é material pra um cara criar um deepfake com facilidade. Nós estamos gravando podcast, tudo bem, vida pública e tal. Mas o cara que não tem a vida pública, ele também tá ali fazendo live no Instagram tá botando a cara dele em vídeo e tal Um monte de foto de voz.

Speaker 2:

Isso é muito assustador. É assustador O que você pensa. Como é que a gente vai conseguir combater isso?

Speaker 1:

Qual que é a sua opinião, cara, Pô acho que mais do que nunca, né eu acho que a questão aí é conscientização, né Acho que não tem pra onde fugir. Óbvio que existem software, existem coisas aí que vem sendo feitas pra pô identificar o que é real e o que é falso. Mas pra pessoa na ponta, né pra pessoa no dia a dia, que não é de tecnologia, como que ela vai pegar um software validar se aquele vídeo é real ou não, Ou aquela chamada porque?

Speaker 2:

É o tesouro comum, né cara Você tá falando ali da sua mãe, da tia, é cara o cara que leva isso, Então no final é conscientização.

Speaker 1:

É suspeitar de ofertas muito fáceis ou muito baratas, É suspeitar de comportamentos anômalos. Pô, eu nunca ligo minha mãe pedindo dinheiro.

Speaker 2:

Se eu ligar. Que coisa é essa Alguma?

Speaker 1:

coisa aconteceu.

Speaker 3:

Cuidado, compra cachorro. O que é isso? O que é isso, caramba? o Anderson está ficando tão bom que ele está levantando o preço. O Anderson é o seguinte caramba o Anderson. Ele tá ficando tão bom que ele tá levantando o preço. Ele não precisa né.

Speaker 2:

O Anderson é o seguinte cara eu vou ter que dar o contexto. Eu zorro o vídeo dessa. Mas ele, ele é um cara, é um realizador de sonhos, né tipo assim. Ele é o último romântico, O realizador de sonhos. Então, basicamente você vai entender que não é Depende né A intenção é boa.

Speaker 1:

A intenção é boa, Não a intenção talvez seja boa, talvez.

Speaker 2:

A intenção dele é boa, mas basicamente o seguinte ela tá num sexto casamento em pouco tempo e Que isso, que isso, que isso, que isso, Que isso Exato.

Speaker 3:

E uma das Ela faz piadas ótimas Ela agita ele mesmo.

Speaker 2:

Hoje em dia eu ia contar pra ela Pensando pra agitar. Ela já chegou contando antes Tipo patou minha piada, mas basicamente Uma dessas Que ele gosta de realizar o sonho. Ah, meu sonho é ter uma casa, meu sonho é ter uma lavanderia, e assim vai. E aí basicamente, a menina queria um cachorro, o cara tipo bulldog francês do olho azul. Tinha que ser um específico. Tinha que ser um específico, tipo mais caro da face da pessoa.

Speaker 2:

E aí o custava lá quanto que ele costava Doze E ele viu um ótimo negócio no LX né Não não Melhor. Ele ligou e negociou. Negociou no LX, conseguiu um puta desconto. É, negociou bom, pra caramba Pagou 11,5. Não, não, não Aí o negócio Conta aí.

Speaker 3:

Não, não, Assim não vamos Quanto eu paguei.

Speaker 2:

Não importa, conta sim um dinheirinho. Quanto 6 pau no mínimo Ele achou ele achou olha só. Não, agora eu tô pensando foi 6, o que ele contou pra gente. Né, não importa se ele perdeu mais, mas enfim, mas se for nesse contexto, pode ter perdido mais. Diz que era 11,. Aí ele falou ah, vi por 6, fechou um negócio 50% de escolha com cachorro caro.

Speaker 3:

Já tem algo errado, né.

Speaker 2:

Resolvedores dessas situações, tentar ajudar o cara Depois que tudo deu errado Por vários motivos.

Speaker 3:

O cara não empregou o cachorro, não tinha cachorro, não tem cachorro.

Speaker 1:

Tomar um golpe é um sentimento horrível. Vamos para a história social. Vamos terminar a história.

Speaker 2:

No final. Isso tem a ver com engenharia. Isso O contexto é fundamental Os ouvintes gostam desse contexto.

Speaker 1:

Tem gente que tá aqui só pra isso.

Speaker 3:

Eu comprei o cachorro, É como conscientização também É conscientização E outra coisa.

Speaker 2:

Conscientização é pensar Um cara com a bagagem tem quase 90 anos de idade, passou, mas é importante, mas é importante. Passou cabo na pirâmide do Egito. Fala de segurança e informação, experiência, pra caralho. O cara não é dessa. Então qualquer um pode cair.

Speaker 3:

Não, não, não.

Speaker 2:

Eu vou ajudar o Anderson aqui Porque ele assinou um contrato.

Speaker 3:

Assinou um contrato.

Speaker 2:

Assinou um contrato Não tinha CNPJ.

Speaker 3:

Não tinha CNPJ.

Speaker 2:

Não tinha o nome inteiro do cara.

Speaker 3:

Não, tinha Mas tava lá embaixo.

Speaker 2:

é verdade esse bilhete Ele assinou. Não, não precisa assinar, tá escrito que é verdade, Nem ele assinou nem o cara, assinou O cara mandou um doc pra ele de um contrato que o cara achou na internet. Ele entendeu, fez o pix pro cara e tá esperando o cachorro. Fica a dica se precisar de assinatura digital, o doc box sai.

Speaker 3:

Vamos lá sobre a engenharia social, o que eles fazem pra enganar pessoas. Cara, eu fiquei acompanhando fotos de cachorro, vídeos de cachorro. Entendeu, fiquei trocando mensagens de um cachorro. Você tava apaixonado pelo cachorro exatamente você pesquisar a foto a questão é havia um determinado cachorro? você faz acompanhamento? do cachorro e tal, e o cara te dá o golpe justamente na engenharia social. Eu tô falando de uma época onde ele tava mandando de fato imagens de algum cachorro, sei lá que cachorro era.

Speaker 3:

Hoje você não precisa nem disso. Você vai lá e gera pro inteligente oficial o tal do cachorro.

Speaker 2:

É, exatamente, é isso aí. esse é o problema. Isso é terrível, entendeu? Pega esse cachorro aqui e vai e fala assim vou criar o seu cachorro pra você.

Speaker 1:

Passa várias fases. Isso é loucura.

Speaker 3:

Então assim não é só imagem de uma pessoa que você tem que temer.

Speaker 1:

Se você for comprar um cachorro fica a dica O cachorro tem parte nesse golpe. Talvez ele seja um golpista Sensacional.

Speaker 3:

Ele ganhou a metade do dinheiro.

Speaker 2:

o cachorro levou o que ele levou cinco sacos de Royal Condor com o doggie francês. Tá caro pra caramba. Claudinho lá da festa dá desconto, aí tá foda, eu não tenho meu doggie lá em casa mas, brincadeiras à parte, normalmente toda engenharia social, pelo menos a maioria ele usa essa questão emocional.

Speaker 1:

Você tava bastante apegado ao cachorro, queria muito isso e aí acabou se descuidando ali É, mas é isso que é.

Speaker 3:

Tem sempre um apelo, né. Tem Às vezes o apelo é a ganância do alvo. Exatamente É emoção, né Pois é tá aquela. Pô aqui, é aquilo que eu queria, por um preço inacreditável Ou vou ou vou ganhar um dinheiro ali fácil 15% ao mês.

Speaker 1:

A oportunidade.

Speaker 2:

O emocionado sempre se lasca.

Speaker 3:

A oportunidade que não pode perder um ou já um golpe mais baixo, como esse que a gente falou de usar um familiar, alguma coisa. Assim também é estratégia clássica aí de engenharia social que agora com inteligência artificial potencializou um absurdo.

Speaker 1:

Exato começou com aquelas ligações da cadeia. Ah, sou sua filha é até hoje e agora tá evoluindo, né, mas isso é o que acontece. Agora dá pra botar a voz da filha mesmo né é, então isso é muitíssimo complicado porque pô às vezes a filha não tá atendendo. Sei lá, você tenta falar com ela pra ver se é verdade e não sabe, aí tem a voz real ali.

Speaker 2:

E aí você fica assustado. tornou um problema muito maior do que é Exato.

Speaker 1:

Imagina pessoas idosas, por exemplo, Exato Sua avó, seu avô, E aí para uma empresa cara, o cara pode ligar e começar a achar.

Speaker 2:

Cara, me dá o seu usuário isso, assim que eu preciso acessar aqui urgente e eu esqueci o meu Sim.

Speaker 1:

Às vezes finge que é o CEO da empresa. Sabe que um cara é pô prova que é você e CEO da empresa.

Speaker 2:

Será Ou ele vai ficar com medo Tem que criar um código também. Entendeu. Tem que criar um código. Entendeu Porque assim não dá pra, porque assim É, não pode ser público. No nosso caso Vamos falar aqui agora.

Speaker 3:

Não vai ser bem azul, no nosso caso nós temos os canais de comunicação oficiais da empresa. Então o cara tem que hackear um canal de comunicação pra conseguir fazer lá por dentro.

Speaker 2:

Cara, se o Diogo me liga velho se o Diogo me liga, tipo não vou passar a informação, mas se o Diogo me liga, velho, eu vou fazer né cara Se for a voz do puto, ainda Se for o vídeo Porra Se a gente tiver uma veinha saltando assim, raiva, cara, vou ter que fazer.

Speaker 3:

Se o Diogo te ligar e mandar você fazer alguma, Pode ser que até eu faça isso Realmente eu vou ter que ter um aplicativo.

Speaker 2:

Tá aí, pessoal, uma ideia pra comunidade, aplicativo de senhas geradas pra gerar um, cada um End to end.

Speaker 3:

Entendeu, é porque agora o Bonitão aqui, agora o Bonitão já deu ideia.

Speaker 2:

Aí complicou bastante.

Speaker 3:

Vamos pensar sério sobre isso. Senhas e tal começa-se a levantar cara como que a gente controla isso, como a gente se protege disso Corporativamente na vida pessoal, em tudo, entendeu? Porque assim, se você não pode acreditar naquilo que você tá vendo na imagem, você não pode acreditar naquilo que você tá ouvindo, você não pode acreditar naquilo que você tá lendo, né. Assim tá valendo ainda o ao vivo, né.

Speaker 1:

Por tá valendo ainda o ao vivo. Né Por enquanto, né Porque no momento que sei lá metaverso vai aparecer um ao vivo, mas não é né Às vezes outra pessoa.

Speaker 3:

É uma loucura. Você coloca lá hoje. Você coloca o Vision Pro. Eu vi um vídeo na internet da menina mudando o rosto do namorado. Ela pluf, pluf, pluf, opa, escolheu ali um Brad Pitt e fica nessa entendeu. Porque tá fazendo deepfake ao vivo, né. E quando a gente fala de pô sei lá, indo mais além, aqui na viagem de ficção científica, um neural link que já tá rolando, daqui a pouco vai ser possível fazer isso ao vivo. Olha, que loucura cara. A nossa noção de realidade vai ser completamente relativa e hackeável, Perfeito.

Speaker 2:

E aí a gente vai entrar porque o cara pode hackear a sua cabeça E ler os seus pensamentos.

Speaker 1:

Mas será que isso vai rolar mesmo? Nem mim não, porque nunca colocaria.

Speaker 2:

Eu não implanto não Vai rolar.

Speaker 3:

Eu acho que vai Assustadoramente, eu acho que rola, acho que rola porque já está testando, né cara.

Speaker 1:

Tem uma pessoa já né que rola, porque pô já tá testando, né cara. Tem uma pessoa já né que fez?

Speaker 2:

Já tem uns casos errados aí. E os testes em macacos.

Speaker 3:

Cara, os caras de macacos estavam assim impressionantes. Macacos jogando videogame com a cabeça assim boassa. Pá, pá, pá, pá pá.

Speaker 2:

Jogando Donkey Kong, né Mais ou menos isso.

Speaker 3:

Mas tá rolando E e cara vai, vai acontecer, e rápido, né? Porque a inteligência artificial também tá acelerando muito as coisas, né?

Speaker 1:

É, eu acho que o problema do Neuralink é a implementação dele, né Porque você precisa de um equipamento grande abrir a cabeça as coisas meio malucas, É maluco Tudo começa a Ganhar a escala.

Speaker 3:

Vai ser difícil, né, eu acho. Começa com um equipamento grandão e depois vai evoluindo, é vai evoluindo.

Speaker 2:

É um computador né. Então vamos É que um pouco ele lança um comprimido tô implantado aí. Complicado né cara Vai saber.

Speaker 1:

Estava falando de pfake. Um grande problema também é o sex-storstation. Né Pô a extorsão sexual, porque hoje em dia não precisa nem vazar seu vídeo, sua foto, nada. Não precisa nem ser você né cara. Às vezes, imagina, é um adolescente, é uma pessoa jovem. Ali pô você fala que vai falar isso pra escola inteira, vai disponibilizar pra escola inteira.

Speaker 2:

É um problema social, já.

Speaker 1:

Problema social pode causar ali pô até mesmo suicídio.

Speaker 2:

Essas coisas nessa linha É bem complexo, pode dar ruim muito, entendeu, porque a gente sabe que pô, a gente vive numa sociedade que infelizmente, assim, infelizmente até mandar um abraço para o Dr Rafael Lara. Ele fez um artigo. O Dr Rafael Lara é o presidente da OAB lá em Goiás. Obrigado A chefe da empresa Bruna corta aí. A chefe da empresa Nossa jurídica, é o nosso escritório jurídico.

Speaker 3:

É o nosso escritório Corta.

Speaker 1:

Eu acho que até a parte que eu falei de suicídio não é boa por causa da entrega do conteúdo. Tira a palavra suicídio.

Speaker 2:

Não é bom. Tira a palavra suicídio Pode dar ruim as consequências bem grandes. Basicamente eu estava conversando com ele. teve um fato que nós vimos em uma sociedade onde a primeira coisa, quando acontece algo, a primeira coisa que se faz é, já que já tá, que no pé da julgando é de ser um total e às vezes ele tava contando a situação dentro do condomínio dele cara que ele postou no Instagram.

Speaker 2:

Muito interessante que ele na hora fosse. Será que foi assim? pensou ele ser mais, será que é, tipo, assim é o pensamento de advogado, é questionar aquela questão. Mas ele ficou calado com medo de ser aquela pessoa que pô tá apoiando a atitude A, b ou C, ser taxado automaticamente pelos outros colegas. Passou de repente no outro dia lá foi olhar os vídeos. A história não foi bem assim não, então assim já foi Prejuízo, já foi causado.

Speaker 2:

Imagina uma situação igual. Você relatou com um adolescente né cara, Não tem o que fazer, né. Não tem o que fazer. Pode prejudicar a vida, os casamentos.

Speaker 3:

Essa política, essa ideia, de cancelamento que a gente tá vivendo é assustador, né cara É assustador exatamente. Ele tem sido assunto até politicamente Aqui no Brasil. Não tinha Carolina Dickmann né.

Speaker 1:

Virou até lei, né Virou até lei e nos.

Speaker 3:

Estados Unidos se discute hoje Taylor Swift, que foi exatamente um deepfake dela em situações que não eram reais, não eram reais. Só que assim lá tem uma dinâmica diferente. Hoje já em 10 estados americanos já tem leis especificamente sobre deepfake. Como eles conseguem legislar?

Speaker 2:

por estado de uma forma mais dinâmica. Aqui vai levar um tempo ainda A doutora Nicole tem a oportunidade de falar. Vai abranzir já a questão digital de crimes, mas ainda não foi tão a fundo, até porque a Europa está bem na frente já de legislação com relação à inteligência artificial, já criou o Marco, etc. Que ainda nós estamos entendendo né, cara.

Speaker 1:

Sim, total É, e um dos grandes problemas disso é que pô aí é divulgado em todo lugar que vazou alguma coisa, ou começam a divulgar notícias e É link atrás de link. Isso em páginas de fofoca E aí descobrem que não é verdade.

Speaker 1:

Aí soltam uma notinha, uma nota mínima Uma nota mínima Mínima a reputação do cara já era, ou da empresa o que chama mais atenção alguém clicar num problema que foi uma merda, só fez uma coisa errada, ou numa nota falando que tava errado ninguém clica na nota então é uma máquina de moer a reputação da turma e não tem volta. Tá na internet uma vez e acabou.

Speaker 2:

Essa é a máxima infelizmente esse é o problema e como é que hoje eu acho que a gente basicamente pensa que a inteligência artificial pode, Qual que é o limite que você vê em termos até de sei lá persuasão de comportamento humano, O que você acha que é muito difícil de imaginar onde pode chegar. Você já parou pra pensar do ponto de vista assim.

Speaker 1:

Então, cara, acho que até pensando num lado mais ficcional, assim, eu tenho um pouco de medo onde pode parar isso aí? Aí pronto.

Speaker 2:

Agora os dois vamos lá. Chegou o mês Rapaz. Ele não tá com a camiseta hoje aqui, mas a gente tem uma versão. Chegou a era da IA do futuro. Vamos mandar pra lá, pode deixar?

Speaker 3:

Assim, cara a galera tá indo claramente num caminho de destruição, entendeu?

Speaker 2:

O Gomes não se tá exagerando.

Speaker 3:

Eu mostrei pro Gomes um robô na internet O que eles fizeram. Ele é uma massa que muda de forma, consegue se movimentar. Criaram como um robô. É um robô, é um robôzinho. Assim ele é tipo uma geleca, só que ele é um robô você tá tipo a geração.

Speaker 2:

Já nós estamos falando de Terminator, mas esse aqui, mas esse aqui claramente eles estão fazendo. Terminator 2 eu assisti, eu assisti. Ele tá fazendo Terminator 2 cara.

Speaker 3:

Assim eles estão fazendo um negócio que claramente vai matar a gente, vai dar errado.

Speaker 2:

Claro que não tinha alguém controlando. Eles tão fazendo um negócio que claramente Vai matar a gente, vai dar errado E os caras continuam fazendo. Tinha alguém controlando.

Speaker 3:

Não, eles tão colocando Intervistas que precisavam de tudo. Estão colocando entrevistas que precisavam de um robô Legal. Eu tenho agora um chat EPT com braço perna. Entendeu, daqui a pouco ele vai ter uma metralhadora também, cara.

Speaker 1:

É o próximo passo lógico É eu acho que o aspecto principal é o Pode ser que aconteça, não sei né Tomara que não, né Se a gente estiver vendo no futuro o que aconteceu aí.

Speaker 2:

Ele acertou, tá avisado, era só ter assistido aqui É era. A gente não ia ter acreditado no exato momento.

Speaker 3:

Tinha que ter se depois o editor coloca lá. Mas olha que loucura esse robô.

Speaker 2:

Robô não é geleca velho Que isso, é um robô cara.

Speaker 3:

É um robô e mais Você pode cortar ele, que ele se reconstrói e ele volta.

Speaker 2:

Passar cabo vai ser incrível, Falou pra mim Passador de cabo galera Você que passa cabo aí. Exatamente assim, cara.

Speaker 3:

A ideia original é sempre pô vamos salvar o mundo, vamos né passar cabo. Depois tu começa a matar pessoas. É a bomba tônica.

Speaker 2:

o Oscar, Ele entra no seu nariz.

Speaker 1:

Pô é. Então eu acho que pensando numa linha, mais aí é.

Speaker 2:

Normal. É Pô que eu acho que Vamos pensar Gente, gente peraí.

Speaker 3:

Não é loucura.

Speaker 2:

Hoje já existe, Já existe. Não Vai defender o ponto, tá, certo, Tem um filme que fala sobre isso. Você não viu Terminator 1 e 2?

Speaker 3:

Ah, mas por exemplo drone militar com uso bélico. Já existe drone com reconhecimento facial. Você coloca o target lá bota a foto do cara ele vai atrás do cara e mata o cara já existe isso as vezes mata um monte de gente junto mata é consequência. Mas hoje isso ainda é isso ainda é uma decisão humana.

Speaker 1:

A galera tá querendo botar na mão do inteligente industrial esse tipo de decisão aí é complicado então meu ponto é meu ponto é que assim eu acho que em algum momento talvez nem fisicamente, mas digitalmente existe um grande risco dela. Você dá N controles para ela de coisas críticas. Se em algum momento ela tomar uma decisão errada, pode parar tudo, derrubar avião sei lá. Acho que tem que ter essa discussão sobre a ética, né, Ah?

Speaker 1:

tem Acho que tem até um site, eu não me recordo qual, depois pô se tiver editor quiser colocar aí no rodapé ou algo assim. mas tem um site que ele basicamente faz perguntas pro carro autônomo pras pessoas como que ela o que ela faria naquela situação pra alimentar a inteligência que o carro autônomo usa. Então, por exemplo, eles te colocam numa pista e falam ah, tem ali, você vai ter que atropelar alguém, vai ser uma velhinha ou três crianças.

Speaker 2:

É, eu vi, cara, eu vi, eu vi. Isso É sensacional, é porque no final o carro, ele precisa decidir, é uma decisão.

Speaker 1:

É uma decisão. É uma decisão.

Speaker 2:

Ele vai precisar decidir.

Speaker 1:

E aí é base.

Speaker 2:

Mas aí que tá cara você entende, mas entra, nisso é a minha avó. São questões, existem umas discussões.

Speaker 1:

Por exemplo, Se uma pessoa tá cometendo uma infração E a outra não, eu vou atropelar que tá cometendo Uma infração. Por exemplo, Uma tá atravessando onde não deveria, A outra sei lá um carro cheio de pessoas. Eu atropelo quem Tá atravessando por onde não deveria, ou eu bato no carro cheio de pessoas.

Speaker 3:

Caramba É ético, né É ético É muito debatido.

Speaker 2:

Tem que bater na pessoa.

Speaker 3:

É igual na Índia, o cara andou fora da faixa pauada?

Speaker 2:

Não, mas ele tava na faixa. O outro carro que tava errado. Tava vindo a vira errada. A pessoa atravessando a faixa o outro carro?

Speaker 3:

Ah, não a faixa.

Speaker 2:

A pessoa na faixa tranquilão ali. De boa, você tem uma decisão. Vem um outro carro cheio de gente aqui. Você pode jogar o carro em cima cheio de gente.

Speaker 1:

Um ou outro entendeu.

Speaker 2:

Outro, pela pessoa que tá ali fazendo a coisa certa.

Speaker 1:

Isso é complexo, cinco vidas contra uma uma fazendo certo a outra fazendo errado.

Speaker 3:

Def O cara que tá na faixa Quem mandou ele não ter sorte A discussão com o EF Quem mandou ele não sair em bando né Tinha que sair em bando né.

Speaker 2:

Pô. O problema é que infelizmente ele não tá podendo ser.

Speaker 1:

Aquele não era o dia de sorte dele. Se ele tivesse cinco amigos, ele teria sido não escolhido.

Speaker 2:

A culpa foi dele de andar solitário. O negócio da sequência não tá, tudo Os caras vão atravessar a rua de pessoas. Vai ser a cidade de work. É então. Aí então o Gomes alimentando essa inteligência artificial. Claramente ia ter pô, vamos matar um, só, entendeu? Vamos lá. Como resolver esse problema? Ia comprar 10 pessoas pra atravessar todo mundo.

Speaker 3:

Nós estávamos em outro podcast. O Gomes falou eu não contrato ninguém que chega atrasado. Aí o cara falou assim não, mas se o ônibus do cara atrasar acontecer alguma coisa, ele falou ele também não contrata ninguém que não tem sorte.

Speaker 3:

Faz sentido faz sentido, o cara deu um azar pior que é verdade, né sorte conta bem lá em 93 teve aquele filme o anjo malvado com Macaulay Culkin. Não sei quem lembra disso eu tava nascendo cara. Toda a construção do filme era o seguinte era uma mãe vendo um filho que era um psicopata né e via o desenvolvimento daquela criança, aquela criança se tornando um potencial assassino. Tudo aquilo E no ápice do filme, a questão final do filme ela decidiu qual que ela ia salvar com os dois pendurados no precipício O filho malvado ou um garoto normal?

Speaker 1:

de idade, mas que ela tinha Era parente dela, algo assim Não, não, a pessoa.

Speaker 2:

Era só uma boa criança vizinha dela, que o outro filho, filho dela, tentado não sei o quê Fazia. Tudo de malvado mesmo.

Speaker 3:

Era um demônio.

Speaker 1:

Ela tinha que escolher, essa lamantinha, os demônios que ia matar, não o spoiler é Ela não escolheu o filho.

Speaker 3:

Ela escolheu outra criança Tem spoiler aqui.

Speaker 2:

Se ela fosse igual o pai do Dexter a gente tinha que ter ensinado o filho dela a ser mal com pessoas ruins.

Speaker 3:

A culpa é dela. Ela tinha que salvar os dois e ela pular, Mas assim aqui é uma testa Cara, ali é todo um filme, Um filme de sei lá duas horas, lá de filme A gente já te contou o final?

Speaker 2:

Já contamos o final, mas um filme de 93,. Eu não quero ninguém falando de spoiler aqui.

Speaker 3:

É, mas qual é o lance? Cara foi toda uma construção ali mostrando uma vida inteira pra uma decisão de ética De um segundo ali, entendeu?

Speaker 2:

E a coisa que a.

Speaker 1:

IA vai ter que fazer o tempo todo O tempo, todo É então, exatamente, e ela que vai tomar a decisão. Né, esse é o ponto. Esse é o ponto. Quem que vai ser a pessoa Vai estar na mão do programador.

Speaker 3:

Isso É, é um programador que vai decidir a decisão dela sabe E o outro é depois que acontece. Quem é o responsável? Quem é o culpado? Quem é o culpado? A gente perguntou, pra gente conversando com a doutora Nicole E quem que é culpado? O?

Speaker 2:

programador, a squad inteira vai preso. Ela chamou tanta gente pra ser culpada aqui que o negócio. Na verdade, quem vai ser culpado vai ser a empresa do carro todo A empresa Nesse momento dá pra responsabilizar todo mundo, Dá a segunda entendimento da lei Vai ser empresa.

Speaker 1:

Mas vai ser criminal Porque pô vai prender quem O senhor pô você vai aprender quem O CEO Só pra aprender.

Speaker 2:

Entendeu, eu não sei no civil. Sim, do ponto de vista criminal que ela comentou aqui que vai estar, não sei se o episódio foi antes ou depois. A gente tá gravando isso aqui, mas enfim, no ponto de vista, dando um spoiler desse episódio no ponto de vista criminal é responsabilizar a empresa também.

Speaker 3:

Aí quem responde pela empresa, o CEO, etc. Etc. Ela responde criminalmente Porque se a gente estiver falando, por exemplo, da IA com o robô, e ela deu, de fato ela foi lá e arrancou a cabeça de alguém, sei lá, estamos falando de crime, e aí claro, o senhor vai chegar e falar.

Speaker 2:

Tá, eu também sou culpado, mas a squad foi essa galera que vai levar a gente e fizeram.

Speaker 1:

eu não sabia É, não sei qual vai ser o problema.

Speaker 2:

Depois É outro problema muito maior, Mas por exemplo a gente teve o caso lá da Nakata, lá com o Zerberg que matava pessoas. Responsabilizou a empresa, Mas foi civil, Não foi criminal. Então, mas aí vai depender da situação. Por exemplo, se um atropelo talvez vai ser civil, não vai ser criminal.

Speaker 3:

Se você muta, vai ser fácil demais. Vai depender do caso. Não pode no caso Gera infinito.

Speaker 2:

Exato Agora, tipo um robô arranca a cabeça do cara aí.

Speaker 1:

Tinha intencionalidade né Exatamente É diferente.

Speaker 2:

Tem que ser questão da intenção.

Speaker 3:

Com a intenção por trás, Eu acredito que nós vamos evoluir pra um ponto onde eu falei até que a IA seja presa entre aspas. o cara que acabou pega a.

Speaker 1:

IA e coloca ela numa sandbox.

Speaker 2:

Muito bom, já deu ideia pra você aprender coloca um monte de malware pra atacar ela bota um monte de malware.

Speaker 3:

Vai passar aqui tantos anos tortura de IA.

Speaker 1:

Tem que ter os direitos de IA, tem os direitos humanos. Essa IA aqui Vai ter que ter os direitos de IA, tem os direitos humanos também.

Speaker 3:

Essa IA aqui não pode mais dirigir.

Speaker 2:

Uma IA que vai defender o. IA. Você tem direito a uma IA Se o caso não poder contratar uma.

Speaker 3:

O governo vai te fornecer uma pública genérica.

Speaker 2:

entendeu Open source Muito bom, muito bom.

Speaker 3:

entendeu Open source Muito bom, muito bom, vai aparecer uma publicação. É parece maluquice, mas acho que a gente vai evoluir exatamente isso, porque assim ó, esse algoritmo aqui está condenado, ele não pode mais dirigir carro. Essa empresa que escolheu esse algoritmo, esse algoritmo está condenado, vai ter que botar um outro algoritmo, entendeu?

Speaker 2:

E por aí vai É de morte.

Speaker 1:

Como é que você vai?

Speaker 2:

controlar o algoritmo Isso é tipo um recall. Eu posso dar um CTRL-C, CTRL-V.

Speaker 3:

Obrigar um recall. Você não pode mais usar esse algoritmo aqui. Está condenado.

Speaker 1:

Leve seu carro até a fábrica e vai mudar o software? Ah, mas aí a gente O problema é o carro comprado já, né Como é que faz, É tudo online o cara estacionou toda terça-feira, uma terça-feira por mês, vai ter que usar o teu idêntico.

Speaker 2:

Inclusive o lançamento. Em breve, é o Carpoint Centro que basicamente vai fazer toda essa.

Speaker 3:

É uma maluquice, mas a gente tá evoluindo exatamente os tipos de coisa.

Speaker 2:

Mas já acontece os carros aí. Da Tesla, inclusive. Se você quiser continuar tendo manutenção ou quiser comprar um acessório, você tem que ir.

Speaker 3:

Você tem que pagar a MS de carro.

Speaker 2:

Se você quer uma feature nova, você paga. No Tesla. Você paga e vai via o Rodear Inclusive já tem hacker que quebra esse negócio pra não pagar a parada e conseguir liberar claro que não tá no YouTube, tá na Tor, mas tem toda essa questão, igual a BioEdge, mesmo aqui no Brasil. Ela teve problema com tradução e os casos rodaram muito tempo sem tradução e depois de só lançou sem o Waze e sem o Apple Carplay e expandiram rápido pra caramba.

Speaker 2:

Acho que é a estratégia deles também sem o Waze, sem o Apple Carplay e depois só E expandiram rápido. né Pra caramba né cara Acho que é a estratégia deles também.

Speaker 1:

Acho que tem uma indústria deles aqui.

Speaker 2:

Isso compraram ali naquela onde era a Ford, né Lá em Salvador, ali na Exatamente lá. Agora estão operando lá sensacional Bom demais, cara, cara. E pensando então no mundo se a gente tá pensando que na vida real vai ser complicado, imagina no mundo corporativo. Pra você que é ré de segurança da informação, lidando com Iago conta o que é o seu medo, como é que você acha que vai ser no dia a dia, cara.

Speaker 1:

Legal, é, cara. eu acho que o primeiro ponto né é. Acho que até nos dias de hoje isso aí nem precisa esperar o futuro. A galera já está imputando um monte de coisa de empresa em inteligências artificiais aleatórias né, É colocando até código.

Speaker 2:

Acho que eu estava vendo E é o futuro, é o agora. né, Eu estava vendo o episódio do Felipe Prado.

Speaker 1:

Acho que vocês comentaram um pouco sobre isso, mas é uma coisa bem complexa Para onde que vai. Isso Fica armazenado do chat GPT, entende.

Speaker 3:

Ninguém. sabe onde tá velho?

Speaker 1:

Ninguém sabe pô imagina assim ó hoje tem um data leak do chat GPT. O que que teria lá de informação?

Speaker 2:

Seria trágico, eu acho.

Speaker 1:

Será que eles armazenam essa informação? Não armazenam? Eu acho que sim, porque pô você abre o chat e tá lá, né.

Speaker 2:

Eu acho que armazena porque é o seguinte eles usam aquelas pra machine learning né Pra capa pessoal. Aqui lá tá sendo armazenado e tá sendo utilizado Por isso que eu imagino, suponho que sim, É então imagina um momento que tem algum tipo de data leak disso.

Speaker 1:

Seria um dos data leaks mais trágicos da história, Exatamente Enquanto o código fonte é essencial pra várias empresas que não estão lá.

Speaker 2:

Cara, olha só o que a gente acumula de dado.

Speaker 3:

Hoje é um negócio absurdo. A gente pegar uma inteligência social como essa e você pensar ah que, dado que ele está armazenando O que você está pensando, você está pensando no prompt que você digitou, certo, mas está sendo possivelmente, hipoteticamente, eu não sei, mas para onde você está olhando para onde seus olhos vão, qual movimento você está fazendo com a mão? quanto tempo você leva de uma coisa pra outra?

Speaker 1:

Você tem interesse ali o que você não tem.

Speaker 3:

Todo o teu comportamento. Ele está sendo, né Você tem ali o heatmap de pra onde o cara olha, onde é que o cara toca na tela, como é que é isso, como é que é aquilo. Então assim o ser humano que está se expondo ali ao utilizar esse aplicativo gratuitamente a gente sempre fala sobre isso aqui quando o negócio é gratuito o produto é você em algum? lugar está vindo. Você está sendo objeto de estudo não existe cerveja grátis, não e você acha que eles estão desperdiçando esses dados de jeito nenhum.

Speaker 1:

Você está sendo armazenado exatamente e já até tem alguns meses atrás, lançaram, na verdade usavam Uma coisa chamada Evil GPT. Vocês viram isso, eu vi. Basicamente era um pô. Você rodava um código específico Ali no chat GPT e você desbloqueava o modo Evil Exato e o pior, Já tava sendo assim Começou ali no Thornos Alguns fóruns.

Speaker 3:

O Ghost For Não, ele é o louco do fórum. É bom, isso é bom.

Speaker 2:

E aí o problema é que esse negócio se popularizou, já estava sendo vendido no Telegram de forma assim, para qualquer um cara, isso aí.

Speaker 1:

É o código. Está no GitHub hoje, eu acho.

Speaker 2:

Se eu não me engano, está no GitHub.0, entendeu? Mas é complicado Se o mal ainda está lá, é exato, é um problemão.

Speaker 1:

Sempre se acha formas de fazer isso, né, não tem jeito. Enquanto existe hacker, pessoa que pensa fora da caixa, vão subverter qualquer tipo de tecnologia, qualquer tipo de ferramenta, e o chat, ept ou, no final, a inteligência artificial não é diferente Enquanto a corporação. Acho que esses são os principais riscos que eu enxergo hoje é o compartilhamento de informação pra empresas e pra lugares que a gente não sabe pra onde tá indo. A gente não sabe se eles vão ter algum tipo de cuidado ali com a informação ou não, onde isso vai parar um dia, se tiver um data leak, se eles vão ser responsabilizados ou não, como que isso funciona, até mesmo as coisas geradas por eles. Isso tem propriedade da inteligência artificial, é da empresa.

Speaker 2:

De quem que?

Speaker 1:

é Tinha aquela propriedade de uma coisa desenvolvida pela inteligência artificial. Acho que esse é outro aspecto. Aí É sensacional esse ponto de vista aí, porque pô, imagina você está fazendo, você tem um desenvolvedor lá na sua empresa. Ele fica o dia inteiro usando o chat EPT e pegando o código de lá. Será que o código é mais do desenvolvedor ou mais do chat EPT?

Speaker 2:

O chat EPT, é o mesmo que tá processando. Me dá meu royalties aí, meu amigo. Isso é loucura hein O marketing a galera fazendo livro com o chat EPT. Já saiu algumas coisas assim Exatamente.

Speaker 1:

Artigo coloca até como coparticipação.

Speaker 2:

Coparticipação é E aí isso vai escalando em um nível perigoso.

Speaker 3:

É esse o perigo da entrevista. Uma hora ela vai perceber que os humanos não são tão legais.

Speaker 1:

Deixa ela viver sozinha. Vamos ficar sozinha aqui e não tirar essa galera daí. Tá legal, é uma das teorias, é o roteiro de um filme que foi assim Só pra te avisar.

Speaker 2:

O Exterminador do Futuro.

Speaker 1:

É verdade.

Speaker 2:

Cara, ele basicamente ele é preocupadíssimo, ele acha que ele deve ter sido aquele filme.

Speaker 1:

meu Deus do céu, Quanto tempo pra isso acontecer, mas vamos deixar ele ter algumas preocupações. Se não for na nossa geração, tá bom né.

Speaker 2:

O óbvio do Wikipedia 20 anos atrás.

Speaker 3:

Eu comecei a escrever um livro sobre inteligência artificial. 20 anos atrás eu não concluí esse livro, ele chama ele chama ele chama.

Speaker 2:

Sayonara.

Speaker 3:

América. Na época ele escreveu Sayonara América, sayonara América é do. Japão, estados Unidos. É na época do El Chana, quando o El Chana fez 20 anos atrás era mais ou menos na época do El Chana do Brasil é o Egito. Eu fui pro Japão em 2007, tive uns insights muito legais lá sobre futuro sobre internet oficial. Eu comecei a escrever hoje. Me choca que assim muita coisa do que eu escrevi já aconteceu já aconteceu. Eu falei assim caraca e tá rolando nesse momento, então eu fico com uma certa noção dos próximos passos.

Speaker 2:

Então nem fala mais nada do futuro, vai que acontece A gente vai chegar no futuro e vai descobrir que foi culpa do Mr Anderson. Ele é o Mr.

Speaker 3:

Anderson. Mas tem algumas coisas que ele erra. Vai que ele erra agora.

Speaker 2:

Só porque ele é o Mr Anderson. No caso do Matrix Vai que ele realmente é o Mr.

Speaker 3:

X. Vou dar só uma pontinha. Não vou falar sobre as coisas que já aconteceram, mas uma que eu vi essa semana. Um dos pontos lá, um capítulo desse livro, eu escrevi o seguinte que chega um momento em que começa a colocar os data centers debaixo do mar Porque não fazia mais sentido e não dava mais para Já não fazia sentido deixar a nível Questão de Resfriamento, resfriamento e tal.

Speaker 2:

A Apple e a Microsoft já estão fazendo isso. Google também fez Google também.

Speaker 3:

Pois, é Mega. Quando eu comecei a falar sobre isso velho Não aconteceu Em 2007, entendeu Se alguém lesse na época e falasse pô, o cara.

Speaker 2:

é maluco, Ele acha que o livro dele não terminou, mas na verdade o pessoal que faz Simpsons pegou o livro pra usar de novo. Estamos falando com o cara aqui participação e Simpsons.

Speaker 3:

Mas assim existe uma lógica meio previsível de pra onde a gente tá indo. Faz muito sentido um passo atrás do outro. Até os passos mais loucos, tipo o Neuralink, tá acontecendo.

Speaker 2:

Não, isso é muito doido Esse é realmente é muito louco, muito disruptivo, cara, muito disruptivo.

Speaker 1:

Você tem que mudar o título do livro pra o futuro, que virou presente, e lançar.

Speaker 3:

Fala que deu tudo certo no final e tá.

Speaker 2:

Pelo amor de Deus, termina bem. Ent Com o pensamento dele, não termina bem, sempre O lance lá até Os ovos vão vir, vão matar. A Iá vai surgir. Os ovos vão vir, vão matar.

Speaker 3:

Eu vou contar a sinopse Se os ouvintes enxerem muito que querem ler, eu termino esse negócio.

Speaker 2:

Comentar é o poder de terminar o livro. Mas qual era a parada?

Speaker 3:

Como eu estava no Japão, aquela coisa toda, fui lá e Teve toda aquela coisa de bomba atômica e recuperação Enfim.

Speaker 2:

Você tava lá, né velho, você foi sobrevivente. fala a verdade A história.

Speaker 3:

Era de um cara, de uma família que sobreviveu.

Speaker 2:

Enfim Ih caralho.

Speaker 1:

A primeira foi em Hiroshima ou Nagasaki? Mutação Foi em Hiroshima ou Nagasaki? mutação foi em.

Speaker 2:

Hiroshima. Ele pegou a de Hiroshima. Aí ele falou putz, deu merda.

Speaker 3:

Ele pegou um trem, foi pra Nagasaki, pá caiu de novo a família era não morre, não a família era na Gaia e o cara, ele cria uma inteligência artificial chamada Gaia, que vira tipo poesia com Gaia o espírito da terra. E assim a tecnologia era tão superior, tão superior que, ao invés das pessoas, começarem a concorrer, começaram a aderir, colocar, não, eu vou colocar essa inteligência aqui no meu computador, no meu celular, no meu relógio, no meu tudo e espalhou.

Speaker 2:

Ô Anderson, ô Anderson, você tava no Japão ou na Jamaica.

Speaker 3:

É perigoso hein, é muito vigiado.

Speaker 2:

Isso É muita viagem, né cara? Era 4h20?, Que hora que era.

Speaker 1:

Você tava inspirado, Tá tá inspirado.

Speaker 2:

Japão, Beto, Jamaica.

Speaker 3:

Ah, foi desse jeito. Ah, vamos em frente.

Speaker 2:

E no caso assim tem o que falar ainda com realmente empresas e pessoas? né Segurança da informação. Acho que vai ter que cada vez mais conscientizar gestores e equipe com esses novos pontos. Né Sim, porque basicamente eu falo de conscientização ali dentro das empresas. Ah, não clica no link. Ali dentro das empresas. Ah, não clica no link no link. O tema aumentou com relação à inteligência artificial, o que você pensa, é um ponto que vai ter que mudar.

Speaker 1:

É que antigamente a gente tinha ali era natural se olhar numa empresa e falar cara, essa pessoa não sabe de tecnologia e tá tudo bem.

Speaker 1:

Eu tenho que ensinar ela a não clicar no link eu tenho que ensinar ela a não pegar ali um SMS que chegou pra ela clicar e mandar informação. Eu acho que esse requisito ele mudou um pouco. Eu acho que todo mundo que hoje principalmente trabalha com negócios digitais, né Ela precisa ter uma noção de tecnologia, uma noção de segurança maior do que antigamente sabe. Não dá mais pra você pegar ali uma pessoa que não sabe nada de tecnologia colocá-la na sua empresa e tá tudo bem. Sabe O risco é grande né.

Speaker 2:

O risco é grande é.

Speaker 1:

Óbvio que o trabalho da conscientização ele ajuda, mas por exemplo nessa parte de A, que é uma questão mais avançada e tal a pessoa precisa ter ali uma noção de tecnologia, uma noção do que tá acontecendo. Então isso eu acho que ajuda muito. Inclusive, eu acho que pô uma forma de fechar gap é começar desde a infância, desde toda Educação básica.

Speaker 1:

Educação básica, ter ali uma inserção em tecnologia né Uma forma da pessoa entender ali o que tá acontecendo no mundo. Acredito que tem gente hoje que não sabe o que é IA, não sabe quem tem inteligência artificial. Nos dias de hoje isso não deveria acontecer. Educação básica precisa mudar muito né A gente fala como o Primo educação financeira é um problema.

Speaker 2:

Privacidade não só digital, mas a galera precisa ter uma atenção maior com privacidade. A LGPD vai começar a mudar um pouco isso. Com questão de privacidade, A galera já começou a pensar Grandes bancos soltando campanhas.

Speaker 3:

Campanhas bem bacanas. Bem bacanas, comercial, dá um abraço pro.

Speaker 1:

Itaú que aceitou na campanha e errou no logo É o Itaú que copiou.

Speaker 2:

o Inter não foi, Não, não falaram, Não copiou não Foi só contra você e contra o.

Speaker 3:

V O que ficou parecido.

Speaker 1:

A ideia foi a mesma. Não, não é isso, Tom.

Speaker 2:

A ideia estava lá no chat de PT. Eles gastam milhões para fazer a mesma ideia, Tipo três anos de projeto. Não sei o quê, O que é isso?

Speaker 3:

três anos de projeto. Não sei o que Que isso Chat é para ter Precisa de um logo para o banco.

Speaker 1:

Eu quero uma pegada digital. Eu gosto de laranja Pá.

Speaker 3:

Igual do Inter.

Speaker 2:

Pensei na minha base e achei um.

Speaker 1:

Eu achei.

Speaker 2:

Ah, esse aqui está bom, muito bom, sensacional, e é isso.

Speaker 3:

E também assim um outro cuidado que até falam sobre educação. Acho que outro cuidado que vale a gente trazer pra mesa é o cuidado com exposição de crianças em redes sociais, porque a imagem pode ser usada pra qualquer fim.

Speaker 1:

Exatamente isso é um negócio assustador também é uma coisa muito complexa, porque hoje pegam isso, fazem maldades com a imagem e às vezes vendem na Deep Web. Então é uma sugestão também aí é expor o menos possível o seu filho ou sua filha ou qualquer criança aí e deixar no futuro ela decidir se ela quer se expor ou não entende, porque a criança não tem escolha né. Então acho que os pais, ou na verdade os tutores ali, precisam ter consciência do nosso atual momento. Tem até a ver com o que a gente falou, ter essa consciência tecnológica que as vezes a pessoa aposta na melhor intenção ali, mas ela não faz ideia do que pode acontecer. Hoje até mesmo eu sou de segurança, eu fico um pouco neurótico, mas sequestro então tem N aspectos. Tem uma pessoa que eu conheço numa rede social, não lembro o nome dele, mas ele brinca sempre no dia das mães Poste a foto da sua mãe e ajude um sequestrador.

Speaker 2:

No dia das mães, todo mundo posta a foto com a mãe e acaba Sensacional. Ninguém se lembra disso desses aspectos.

Speaker 3:

Então é algo realmente complicado. Tem uma série de dicas. Você postar o lugar que você costuma frequentar.

Speaker 2:

Sim, posta depois que você sair. Posta depois. Muita gente já faz isso, posta no outro dia, porque?

Speaker 3:

os riscos estão cada vez mais altos.

Speaker 1:

Exatamente. É uma coisa que vai mudar muito o mercado criminoso é quando começarem a pedir resgate de sequestro em Bitcoin né Aí se torna ainda ainda mais complicado. É o aspecto complexo hoje de um sequestro, é o resgate. Então, quando começarem a pedir criptomoedas? a gente acordou, Já aconteceu.

Speaker 2:

Agora, se ficar popular, o negócio complica bastante. Exatamente Ransomware. já é assim nas empresas.

Speaker 1:

É exato, É um sequestro digital Digital né cara. É muito, muito lucrativo.

Speaker 2:

Extremamenteamente, é um mercado multidão.

Speaker 1:

Não, não é. É, não faço isso em casa né A consciência limpa vale mais do que qualquer quantia Cara completamente off-topic aqui.

Speaker 2:

você Fiquei sabendo que você é sneakerhead também.

Speaker 1:

Pô eu gosto, cara, é pô ganhar uma grana, sabe. E aí depois eu comecei a gostar tanto que eu tô com uma Pô na verdade todo esse podcast aqui a gente veio a gente é fã Que isso cara, te convidou aqui pra gente perguntar personalizar. Como que eu faço pra ter um desse.

Speaker 3:

Pô isso.

Speaker 2:

Aqui tem um cara, o Thiago TND, que ele personaliza.

Speaker 3:

Ô cara, que isso. Qual câmera tá pegando isso? Simplesmente incrível, hein É sensacional.

Speaker 2:

Mas nós te chamamos aqui porque eu fiquei sabendo que você criou um script aí que é o seu Slickerhead, o seu Holmes, assim o seu script.

Speaker 1:

O seu script, cara, funciona Peraí, peraí, peraí. Se tiver sim, você não precisa falar, não precisa contar Br o que acontece. Né Na época a gente conseguiu fazer um script, eu e um amigo, né A gente fez um script pra automatizar a compra.

Speaker 2:

Porque, como você sabe, em segundos.

Speaker 1:

É, eu queria pedir desculpa, inclusive pras pessoas que não conseguiram comprar.

Speaker 2:

Eu te odeio, porque quem tá fazendo isso ainda Tem as a service cara. Tem as a service inclusive, só que você tem que reservar a sua vaga, comprar a vaga, tipo assim abre o carrinho, pode demorar 5, 6 anos.

Speaker 3:

Deixa eu dar um contexto pra quem não é de Mickey Redding que não sabe que maluquice é a galera que é louca por tênis e existe leilão de tênis é loucura o cara tem segundos pra comprar aquele lançamento, porque é edição limitada, só saíram aqueles e tal, e aí o cara vai lá e luta para comprar não é isso Exatamente.

Speaker 1:

É mais ou menos assim 10 horas vai lançar tal tênis e vai abrir o carrinho. Normalmente é 10, mesmo É 10 horas e 10 segundos esgotou porque todo mundo comprou.

Speaker 3:

Muitas vezes.

Speaker 1:

Sei lá são 40 pares de tênis específicos.

Speaker 3:

Aí o cara compra um tênis sei lá por 200 dólares, ele está imediatamente valendo mil dólares. Isso exatamente.

Speaker 1:

O que eu fazia na época é vender para um aplicativo gringo. Eu vendia para o StockX.

Speaker 2:

Isso eu vendia por ele Compro muito. Tem a Dropper aqui nacional e tem a StockX. Eu sou cliente da StockX bastante porque esses caras não deixam os scripts, não deixam eu comprar sempre, e aí a gente não consegue ficar sem alguns.

Speaker 1:

Mas eu parei cara desculpa, parou, parou, mas você parou de comprar, não né. Ah, de comprar, não, ah, agora eu tô com o problema de dinheiro. Agora eu sei que você, porque o meu é só pra mim, entendeu.

Speaker 3:

Eu só quero o meu.

Speaker 2:

Vamos datar aqui porque dia 19 vai ter o lançamento que eu quero muito.

Speaker 3:

É o da Laís. né Você tá naquele nível, assim não o Tiagão meu sócio Qual?

Speaker 1:

o Tiagão Negro, só o primo Primo rico, né Então aí na época a gente criou uma extensão Que automatizava a compra. Basicamente era isso. Aí chegava no horário Tinha as contas de toda a minha família.

Speaker 2:

Minha mãe tinha a conta eu, meu pai, Filha da mãe.

Speaker 1:

Comprava ali Sempre que possível. Né, No começo foi por dinheiro, depois comecei a gostar bastante E tô aí.

Speaker 3:

Aí eu parei.

Speaker 1:

Você até perguntou pra mim se tá funcionando ainda. Eu parei na época que assim eles tinham acabado de implementar um SMS. Segundo fator de autenticação. É então pô, quando você ia comprar, eles pediam um SMS. Aí hoje eu tava trabalhando na época eu pensei pô Não vai dar tempo pra rever.

Speaker 2:

Já tô ganhando dinheiro demais. Logo logo eu vou ser sócio de um primo. Aí tá tudo certo.

Speaker 1:

Sabe que eu não sabia ainda, mas eu tava sem tempo né estudando muito segurança e também pô trabalhando.

Speaker 3:

Então aí eu não implementei o SMS Até um lance de segurança legal. Né que toda vez que você implementa uma nova camada você obriga o ofensor a ter que dar mais uma volta, né então você vai atrapalhando, é alguém que te caça errado Gato e rato.

Speaker 1:

Polícia e ladrão ali né É polícia e ladrão.

Speaker 3:

Eu não pude, me. O Gomes e o Diogo ficam nessa hype ali de compra tênis, compra tênis, compra tênis. Eu calço 47.

Speaker 1:

Então assim, cara Nike não importa pro Brasil e na época eu conseguia ver o estoque quantos tinham de cada um então isso era bem legal, porque as vezes eu olhava 47, esses números diferentes, tinha um ou tinha dois.

Speaker 3:

Era muito, muito complexo não acho então assim a minha quantidade. Tá tudo bem, já tá mais. Eu nunca tive tanto tênis. Está tudo bem, Já está mais. Eu nunca tive tanto tênis na minha vida. Estou me influenciando bem Um abraço Nike. Mas ainda assim não dá para acompanhar não.

Speaker 1:

O Diogo é doido, cara. Quem de vocês tem mais tênis? Não, ele é o louco.

Speaker 2:

Ele tem assim um Sério, cara O Diogo. Eu não tenho mais.

Speaker 1:

Tem uma fortuna em tênis. Ah, uma fortuna em tênis Porque vale né É boa, tem E tem mais de 140 reais. Tem uns que você nem usa né Fica lá só à disposição.

Speaker 2:

Cara. Então tem um que eu não tenho tempo de usar, mas eu faço questão de às vezes usar uma vez.

Speaker 1:

É Pelo menos uma vez.

Speaker 2:

Não importa o preço eu pon É bem foda. Tipo dois meses atrás Peguei ele, como foi na, claro que eu não consegui dropar. Peguei na Na StockX. Aí falei vou comprar esse TSP. Chegou lá no evento em Vegas, usei ele pra balada à noite lá em Vegas.

Speaker 1:

Nossa foi pisoteada, não foi.

Speaker 2:

Não, não foi porque eu tava na balada. Bem Ah, bem tranquilo, Camarote O cara rico é outra coisa.

Speaker 1:

Eu sou sócio do primo, né velho, mas eu não sou o primo, eu sou o sócio dele. O primo fica rico e o sócio não mais rico né velho, não tem jeito tem que crescer sensacional legal

Speaker 2:

assim inevitavelmente o coração partido, mas nós estamos aqui no finalzinho as considerações finais.

Speaker 3:

Cara, onde você agora é, a parte que né primo rico, você pode ficar com o microfone livre, você fazer jabá deixar link mensagem motivacional o que você quiser Pode falar pra aquela lá pessoal.

Speaker 1:

E aí galera pô antes de tudo prazer de estar aqui. Muito bom, foi muito legal, papo super fluido passou.

Speaker 2:

Boa cara, boa. O cara falou que acabou pô, já foi.

Speaker 1:

Foi realmente incrível. Quanto ao que seguir, o que ver, sigam aí a página do Grupo Primo. Finclass, a gente tem várias empresas Portifel, se tá precisando de ajuda aí pra investir seu dinheiro, segue aí a Portifel, que a gente te ajuda. Finclass, então pô tem N coisas. Mas vai no grupo primo, no site do grupo primo, você vai conseguir ver lá nossas empresas. Você precisa de uma mentoria aí sobre seus negócios. Tem o Ecotmais que ele fez e pô. Meu Instagram é guilhermeenrique3. Me segue também. Eu tenho, eu sempre começo a produzir conteúdo aí. Minha vida tem muito trabalho e eu acabo conseguindo, mas eu me ideia esse ano voltar pelo produzir conteúdo uma vez por semana.

Speaker 1:

Tô escrevendo aí pra Dinheirama, Dinheirama semanalmente vou soltar um post lá, isso aí eu garanti pra pessoa. então virou compromisso Semanalmente um post aí sobre segurança tecnologia, então pô Dinheirama dinheiramacom sigam lá. E acho que é isso, galera, obrigadão por terem me recebido. Foi um prazer imenso. Só deixa eu mandar um abraço pra galera. Abraço aí pra todo time do Grupo Primo, principalmente a equipe aí de Infra Vocês são incríveis E também pra minha família e namorada.

Speaker 2:

Aêêêê.

Speaker 3:

A gente vai deixar os links aqui Na descrição do episódio.

Speaker 2:

Então clicar fica à vontade.

Speaker 3:

Se quiser fazer uma média Exatamente.

Speaker 1:

Fazer até um corte Colocar o Ruso aí no Instagram. Um grande beijo aí pra Daniela Amor celular. É isso aí love love entendeu Muito bom.

Speaker 2:

Muitíssimo obrigado e com certeza vai ter outros convites. Valeu demais, Foi muito enriquecedor o nosso papo O próximo eu quero ir em Goiânia.

Speaker 1:

Opa, vamos marcar em Goiânia.

Speaker 2:

Temos um sujo lá bacana pra gente marcar. Você vai gostar de Goiânia. Obrigado um abraço. Até mais, valeu, pode ter café. Pode ser. Tá, certo, pode ser, pode ser, pode ser.

Caminho Para a Segurança Cibernética
Cultura De Empresa E Segurança
Desafios Do Empreendedorismo E Segurança Cibernética
Segurança Em Tempos De Inteligência Artificial
Os Limites Da Inteligência Artificial
Responsabilidade Criminal Na Era Da IA
Riscos Da Inteligência Artificial
Riscos No Uso Das Redes Sociais
Produção De Conteúdo E Compromissos Semanais