PODCAFÉ TECH

Mikaeri Ohana | Da Explicami ao Futuro da IA

podcafe.tech Season 6 Episode 226

Send us a text

 PODCAFÉ TECH | Com Mikaeri Ohana (Explicami) 

Neste episódio, recebemos Mikaeri Ohana, criadora do Explicami, um dos maiores projetos de divulgação científica em ciência de dados e inteligência artificial no Brasil. Antes mesmo da febre do ChatGPT, Mikaeri já criava conteúdos acessíveis que ajudavam milhares de pessoas a entrar no universo da IA. 
Hoje, além de produtora de conteúdo, ela é cientista de dados em multinacional, pesquisadora de mestrado na Unicamp e referência premiada pelo Google, Microsoft e LinkedIn. 

☕ Falamos sobre: 

Como nasceu o Explicami e a missão de democratizar a ciência de dados 🌍 

O boom da IA e o impacto do ChatGPT 📈 

O papel da educação e da comunidade para quebrar barreiras de entrada 🎓 

Rotina de pesquisadora, criadora de conteúdo e cientista de dados ⚡ 

Como lidar com críticas e se expor aprendendo em público 💬 

O futuro da IA e como começar nessa área hoje mesmo 🚀 


💡 “Compartilhar enquanto aprende é um ato de coragem — e transformação de coletiva.” –Mikaeri Ohana

PodCafé Tech é um podcast onde Mr Anderson, Guilherme Gomes e Dyogo Junqueira, recebem convidados para falar de uma forma descontraída sobre Tecnologia, Segurança e muito mais.


YouTube: youtube.com/@podcafetech

Instagram: instagram.com/podcafetech

Linkedin: linkedin.com/company/podcafe

Speaker 1:

Música. Muito bem, muito bem, muito bem. Estamos começando mais um Podcafé, tech Podcast, tecnologia e cafeína. Meu nome é Anderson Fonseca, eu sou o Mr Anderson, e hoje você vai descobrir que a IA aprende com seus próprios erros E você.

Speaker 2:

Vamos que vamos Aqui é Guilherme Gomes da CS Pro E o Anderson agora tá filósofo.

Speaker 3:

Diego Junqueira, ceo da CS Pro, da C-Cyber Pro. Pra nós é um prazer receber ela, nossa amiga tá famosíssima, andando pra todo lado aí. Quem não segue vai seguir.

Speaker 4:

Vou deixar ela mesmo se apresentar gente, é um prazer imenso estar aqui com vocês. Obrigada pelo convite. A última vez foi online, né primeira vez agora gravando presencial. Super empolgada por falar de muita AI por aqui. Eu sou a Mikari Ohana. Eu sou criadora de conteúdo no Explicame, onde a gente democratiza a ciência de dados e IA há bastante tempo antes do chat de EPT ele existir. Eu sou de gerente de dados IA numa multinacional CIT. Faço mestrado na Unicamp na ciência da computação com foco em inteligência artificial, premiada pelo Google, microsoft e LinkedIn também pelas minhas contribuições, e super animada pra gente bater muito papo por aqui.

Speaker 3:

É, você viu a apresentação? ainda brincadeira. não, isso é só a headline dela. velho Vai brincando. Pensa bem vai brincando, cara, eu sigo ela e tem hora que eu penso que hora que ela tem vida, né Um pouco a gente vai entrar nesse tema, mas antes tem lojinha, mr Nessa Tem lojinha.

Speaker 1:

Vamos lá, você, nosso ouvinte, que há anos pede camiseta, caneca e tudo mais, o pessoal, né Caraquinha e tal. Muito bem, acesse agora podcafétech igual tá aqui E se você não sabe escrever tech.

Speaker 2:

Tira essa camisa que você não é de TI entendeu Porque não é possível escrever tech Não dá, não dá.

Speaker 1:

Podcafétech. acessa lá A lojinha tá disponível pra você adquirir todos esses produtos. e um plot twist Todos esses produtos eles são uma contribuição para a Nail Autismo. Quer dizer, nós temos 100% de conversão de todas as arrecadações da loja para uma instituição que trabalha em favor daquele que é autista. Então você, que é de TI, possivelmente autista, também contribua lá com a gente.

Speaker 1:

É um ramo onde você consegue ficar de boa trabalhando tranquilo, sem ninguém te incomodar. Mas pô, qual é a parada? Todas essas iniciativas são a contribuição, instituição de anos no mercado. Gente séria, a gente tem prazer de estar somando, de estar colaborando, de estar abrindo espaço pra falar deles Também pra você receber, pra você fazer a sua contribuição diretamente pra eles. Pode fazer direto lá, acessa lá, troca uma ideia, conhece o trabalho deles. Vá também lá no nosso Instagram, no arroba podcafetec. Você também vai ver lá vídeos sobre eles, vai saber um pouco mais e vale muito a pena e não deixa de ter a sua canequinha é caneca eco bag imã tem de tudo lá na nossa lojinha Camiseta tá 100% da renda vai pra instituição.

Speaker 1:

E tem as camisetas exclusivas.

Speaker 3:

também lá, coleções exclusivas Tem coleção do Cisa de mim paciente tá saindo da Silvia agora.

Speaker 4:

Vai sair da.

Speaker 3:

Silvia Tem collab? Vamos lá, tem vários collabs, sensacional, vamos lá. Mi, bem-vinda de volta Depois de bastante tempo. Gravamos a primeira vez ali. A gente ainda fazia só digital, só no áudio. Passamos desde a temporada passada aqui no estúdio e tivemos o prazo. Então desde a temporada passada tentando ajeitar as agendas, né, mas a Mi pô cada hora no lugar. Eu acompanho ela sempre ali no Explica Mi e troco o WhatsApp. Ah, não, hoje eu tô aqui, tô ali. Não é fácil, a agenda não tá. E pra começar, quem não te conhece ainda explica pra gente primeiro. Que trocadilho.

Speaker 4:

Que eu amei esse trocadilho.

Speaker 3:

Eu acho que ele fez sem querer cara. Ele fez sem querer cara, foi genuíno, foi bom Quando eu pensei no usuário já tava, Você tá vendo Explica pra gente, você tá vendo, então explica pra gente primeiro da onde surgiu essa ideia, né Antes do ChatGPT ou seja conteúdo original realmente, né A gente 100% original. Da onde surgiu essa ideia de começar a passar conteúdo com o ExplicaMid, de fazer essa?

Speaker 4:

maneira de transmitir de forma acessível o conhecimento pelos seus redes. Bom demais, assim eu comecei. Foi próximo da pandemia ali, porque eu comecei a me conectar mais com a inteligência artificial. Foi em 2018 e eu sentia muita dificuldade pra começar na área. Assim sabe, aquelas disciplinas de estatística, matemática que você fazia mais mesmo pra passar no ensino médio, te entendo bem, ah já achei que você tava falando da faculdade cálculo 1, cálculo 2, eu só fazia pra passar mas tem essa parte também, só que o meu cálculo foi mais nos primeiros, assim né.

Speaker 4:

E aí eu tinha feito uma faculdade de análise e desenvolvimento de sistemas na FATEC e eu gostei muito. Lá eu tinha contato com o Arduino, com vários mainframe, vários cursos diferentes e qualquer curso que tinha. Eu queria fazer muito mais pra me conectar tudo. Acho que, como era gratuito, eu queria absorver todo aquele aprendizado você estudou mainframe também, cara.

Speaker 3:

Ela é nerd você conhece o EasyTree Plus olha por esse nome.

Speaker 4:

Aí eu estudei, mas eu não usei, só o teste.

Speaker 2:

Ele fez uma brincadeira Que três pessoas sabem, e ele é uma delas. Eu não conhecia A gente entrevistou alguém aqui que conhece.

Speaker 4:

É teste pra falar da idade né.

Speaker 1:

Se souber parabéns Não existe.

Speaker 4:

Eu gostava de fazer essas coisas sabe.

Speaker 1:

Sim, você ficava no Match Lab brincando lá.

Speaker 3:

Sim, Não, mas assim gostava é uma palavra forte, Porque você gosta ainda. Né Assim pô, você faz coisa pra caramba, né Você tem o seu trabalho. Vamos dizer assim Você tá lá, você tá em todos os lugares, tá Fazendo apresentando podcast em alguns lugares, Tá em evento, tá fazendo apresentando podcast em alguns lugares, tá em evento, tá viajando pelo Google pra vários lugares e em outras empresas e tava fazendo mestrado também. E aí eu fico realmente, eu fico olhando assim e penso como é que você tem vida, Como é que você tem, como é que você administra seu tempo, Como é que é? isso aí Conta pra gente, pra pessoal, ter ideia de como é que é a sua rotina.

Speaker 4:

Olha, eu acho que a minha, eu acho que eu gosto muito de rotina assim, acho que é um ponto bem importante, assim Eu acho que o ordinário é onde tem o extraordinário pra mim. Então, por exemplo, eu gosto muito, eu romantizo muita coisa, assim Vou fazer um café com a gente de manhã, né Agora eu tenho um café com a do rádio de vocês eu ganhei.

Speaker 2:

Agora eu estou muito mais preparada. O ritual do café de manhã.

Speaker 4:

Então eu gosto muito dessa parte assim, de toda parte do meu dia, eu ir conseguindo ver valor e prazer, naquilo sabe. Então vou pra Unicamp, vou pegar a estrada porque eu moro em Jundiaí e faço a faculdade é uma est, a faculdade é um mestrado em Campinas, então coloco minha playlist que eu mais gosto, indo pra lá. Então tem coisas assim. Eu tento gostar muito da minha rotina no dia a dia. Acho que é bem nessas pequenas coisas que você vai tendo prazer de viver. Na minha opinião né, mas óbvio, né assim, sábado e domingo não é o momento que eu também paro 100%.

Speaker 4:

Então eu sempre conecto as coisas do Explicame, eu tento fazer esse equilíbrio. Né que eu não acredito 100% nesse equilíbrio acho que não tem como realmente eu trabalho bastante pra dar conta de tudo. É inevitável, mas eu gosto muito, sabe, assim, acho que quando você recebe um feedback de uma pessoa que falou assim nossa, eu comecei em IA e tô gostando muito dessa área porque você publicou um artigo no Medium em 2018. Então, assim, o motivo por eu começar o Explicame foi porque pra mim foi muito difícil entrar em IA.

Speaker 4:

Sabe, acho que eu tinha uma base de matemática, tinha os cálculos ali que a FATEC me deu de bagagem. Só que a FATEC me preparou pro mercado de trabalho. E aí, quando você vai pro mercado de trabalho, tem coisas que saem da base que você recebe, tem coisas que são mais específicas, e machine learning pra mim foi muito complexo. Aí, eu falei assim sempre quando eu entro na internet eu vejo pessoas já que já são role models, já conseguiram alcançar vários steps, e eu não consigo pegar ninguém que tá aprendendo ainda. Então eu falei assim ah, eu vou então expor meu aprendizado enquanto eu aprendo machine learning. Então as pessoas vão começar a ver alguém que tá aprendendo e tá começando na área e eu também, abaixo a guarda de quem ia me criticar porque eu falo assim.

Speaker 3:

Cara, eu tô aprendendo você vai me criticar porque?

Speaker 4:

eu realmente não sei entendeu então, assim foi uma, uma coragem, um ato de coragem, eu acho, porque rede social não é algo simples, não é algo fácil né.

Speaker 2:

E toma muito tempo também, né A posição, né Porque numa posição onde estou aprendendo e a possibilidade de crítica é muito maior.

Speaker 4:

Mulher né.

Speaker 2:

Jô.

Speaker 3:

As pessoas são más. Sim, Tem gente má ali atrás de um comentário, alguma coisa.

Speaker 2:

Não, como ela disse, tem muita gente boa, mas a gente sabe que aqueles más às vezes acabam pegando no.

Speaker 3:

Realmente você se expõe bastante. E assim o mais interessante pra mim e já achava interessante isso quando a gente teve a primeira conversa, que ainda não existia chat GPT, você ter escolhido IA Antes de escolhido IA. Né Assim, antes de IA hoje, qualquer coisa, churros com IA, café com IA, qualquer coisa, se não tiver IA hoje o pessoal não gosta, é basicamente isso Tem que ter IA. Qualquer evento que você for, tecnologia, tudo tem IA. E antes de isso, é claro, pós chat GPT aconteceu todo esse boom e você já tinha escolhido esse negócio lá atrás, ou seja já tá aí uma consolidada. Né Sabendo muito antes da galera realmente estar Peraí o que tá acontecendo. Tem gente que tá agora querendo se entender desse mundo por causa das LLMs.

Speaker 4:

Exatamente. Acho que uma coisa que Esse ato de coragem que eu tomei lá atrás, né De começar a aprender sobre IA, me trouxe vários pontos positivos assim, e eu acho que Eu não acreditava muito nesses pontos de virada. Sabe Que aconteceu isso na sua vida e que sua vida nunca mais foi a mesma? Eu sempre achei que era uma consequência de várias coisas que iam agregando, só que na minha vida teve dois momentos. Acho que esse momento onde nesses cursos ali, mainframe e tudo mais, eu fiz um de Arduino E eu adorei na FATEC, e Eu fiz um de Arduino E eu adorei na FATEC E na FATEC eu queria ter na verdade prestado unicamp pra graduação, mas eu não passei por uma questão.

Speaker 3:

Sério, me senti mal, me senti super…. Já que você é nerd, você deve ter sentido mal mesmo.

Speaker 2:

Ela é nerd pra caralho, mas é unicamp né cara Imagina você fazendo mestrado mesmo.

Speaker 3:

O mundo da voz. Ah, entendeu.

Speaker 4:

E acho que assim não era pra assinar naquele momento né.

Speaker 1:

Embora eu tivesse, vou te dizer que a Fatech errou, mas olha só que engraçado.

Speaker 4:

A Fatech. Ela foi essencial na minha vida porque eu fiz esse curso de Arduino. E aí, olha que engraçado esse curso de Arduino. Eu comecei a me conectar muito e meu professor falou assim já que você gostou o que você acha de ter o Arduino Day, que é um dia no ano onde a gente chama a comunidade pra ensinar Arduino? E aí eles falaram assim você vai lá e me ajuda a dar essa aula de Arduino. E eu falei pô, beleza, vamos lá. E aí, quando eu fui dar essa aula, eu tava achando incrível, porque era a minha primeira experiência expondo conteúdo pra pessoas que eu não conhecia, um conteúdo que eu gostava, e eu recebi um retorno positivo quando eles conseguiam fazer lá o projeto, eu falei ponto, eu gosto dessa parte de comunidade. E aí foi quando eu comecei a sair lá de um dia. Aí meu pai preparava um pãozinho com carne pra mim. Eu pegava, comenta, pagava, pra mim era caro pagar 50 reais, um cometa e voltar.

Speaker 4:

E aí eu vinha pra eventos tipo assim Big Techs, aqui eu achava incrível os prédios espelhados, né e tudo mais. E aí eu chegava, participava de meetups e voltava e falava nossa, eu gosto de comunidade. E aí o ponto de virada, o primeiro foi quando eu dei a sala de Arduino e descobri que eu gosto de comunidade, que me guiou pro segundo. Quando eu fui dar uma palestra, falei vou compartilhar no LinkedIn Porque tem pessoas lá do Nordeste que não vêm aqui. E isso foi antes da pandemia, então não tinha muita live assim tão forte né, não, não, não tinha conteúdo, era você veio veio, não veio, perdeu conteúdo.

Speaker 4:

Então eu comecei a compartilhar no LinkedIn. A galera começou a gostar E aí, nessa de eu apenas assistir, começaram a me chamar essas empresas que eu vinha participar. E aí foi quando a Microsoft me notou, notou a empresa que eu trabalhava e a empresa que eu trabalhava falou assim você gosta de falar e tal Fala desse slot aqui. Então com a Microsoft, e aí eu fiz um bot porque eu pesquisei quais eram os assuntos que estavam bacanas na época pra falar e o chatbot tava super hypado. Gente, o chatbot era hypado em 2018. Tá vendo, mas não tinha essa questão do chat GPT.

Speaker 3:

Ainda assim, amor Não era um outro chatbot, Era outra história.

Speaker 1:

Lembrar do nome. Se eu falava o lá, meu nome é Mikaele.

Speaker 3:

Não lembrava até o final? Claro que não. Você tinha as opções ali e ia seguir aquele roteiro lá né.

Speaker 1:

E o outro deu errado irmão Volta. Tudo É um fluxo, E aí assim, eu gostei muito dessa parte.

Speaker 4:

eu dei essa palestra, eu vi que teve retorno e eu falei assim nossa, isso aqui eu usei IA, que legal. Então quer dizer que dá pra eu aprender IA, né? Mas aí eu tava fazendo uma questão que era meio que drag and drop, um pouco mais Low code ali.

Speaker 4:

No code, low code. E aí quando eu fui começar a ver, tá bom, mas o que isso aqui tá chamando. E aí foi quando eu entrei de fato em IA E eu falei isso aqui é um caminho sem volta. Eu chegava em casa, estudava IA, voltava pro trabalho, trabalhava como desenvolvedora de software mesmo. Então eu tava mirando minha carreira pra arquitetura de software e ser charme do NET.

Speaker 1:

Assim acho que bateu mental né Tá pra usar isso Total. E aí eu tomei a decisão Até os arduínos né As possibilidades são muito grandes.

Speaker 4:

Aí eu tomei a decisão e foi um ato de coragem. Assim, porque quando você tá numa jornada que tá dando muito certo, você tomar uma decisão, né Quando tá tudo dando certo é muito mais difícil do que quando você não tem mais Com certeza É quando tá errado qualquer decisão, é aquela.

Speaker 3:

Agora, quando tá tudo dando, certo, pô é difícil.

Speaker 4:

E aí quase ninguém me apoiou, mas Mas eu imagino, eu imagino que você é profissionalmente cientista de dados, começou com a Arduino.

Speaker 1:

Eu tô esperando. assim, na sua casa você faz o café de manhã, as pessoas abrem o armário pra fora com café. entendeu, isso Era um lance meio da Top Brown, entendeu?

Speaker 2:

Uma possibilidade. Você abre a cortina. A gente tá com tanta xícara de café.

Speaker 1:

Vem um bracinho pega o café morre o café Sabe aqueles Aquelas máquinas de.

Speaker 4:

Alex era protótipo perto de nós, É certeza.

Speaker 3:

Então fala-se muito aí das LLMs, né? E aí a gente tem aí as diversas outras questões bem mais simples e específicas, como as Decision Trees, as SVMs, qual o trade-off entre essas LLMs e essas outras matrizes. Vamos dizer assim não sei como é que você vai chamar.

Speaker 4:

Boa, então, quando a gente fala de LLM é um modelo generativo, então ele gera imagens, gera texto, gera os vídeos. quando a gente fala de LLM é um modelo generativo, né, Então ele gera imagens, gera texto, gera os vídeos que a gente tem visto. E esse modelo generativo ele tem ali uma questão que o pessoal comenta né Que ele não vai gerar a mesma coisa conforme você vai solicitando. Ele não é determinístico. né, Então você não vai esperar que. E por isso que falam na alucinação, Ah, então eu pedi uma coisa esperar que E por isso que falam na alucinação, Ah, então eu pedi uma coisa ele não vai gerar aquilo sempre, né.

Speaker 3:

Então esse é um ponto. E mesmo se você pedir pra o chat, tipo assim eu quero essa mesma imagem diferente, mas assim completamente diferente, a imagem né É.

Speaker 4:

E assim é normal, por conta característica mesmo, ele cria as coisas. E esses modelos que a gente falou Random Forest, SVMs, uma regressão logística são modelos que a gente meio que comenta que são discriminativos. Né Porque eles são modelos, que eles são determinísticos. Então eu, a partir de uma entrada, eu espero que haja uma saída, Então vou fazer uma predição pra verificar a fraude. Por exemplo, Eu tenho entradas de fraude, não fraude, eu espero que a saída seja então, se aquilo é fraudulento ou não, O que acontece.

Speaker 4:

Né Esses modelos generativos, eles não foram criados para esse propósito aqui da fraude, Até porque eles são muito mais caros, eles demandam muita energia, milhões, bilhões de parâmetros, e eles não são para esse propósito. Então, por exemplo, se você vai fazer um chatbot, você vai querer criar textos, né Conversar, né Um propósito um pouco mais abrangente, você não vai usar uma regressão logística, um modelo um pouco menor. Mas se você tem um problema como esse que eu comentei, uma previsão de demanda, que são problemas já estabilizados no mercado, que você precisa explicar aquilo, um banco vai querer saber porque você rejeitou ou não um cliente ter um crédito. Então esses modelos eles ajudam pra isso, pra você conseguir explicar, pra você conseguir modificar esses pesos, por isso que a gente defende tanto que LLM não é bala de prata. Então você saber escolher qual que é o teu problema, né.

Speaker 3:

E aí é o X da questão. Muitas vezes o pessoal fala pô, vou pôr o chat EPT pra analisar a fraude da minha empresa, analisar o crédito. Todo mundo acha que o chat EPT, que todas as soluções que estão no mercado são as únicas coisas que tem em IA. Tem muita gente que pensa isso, né Tem curso falando disso e daquilo, e aí quando você vai pra algo muito mais específico, essas LLMs deixam de ser interessantes e não é a solução né.

Speaker 4:

Exato. Elas são muito mais caras também. Né Então? você pensando assim, depende muito do seu propósito. Regras, coisas regulatórias? né Então você tem uma API que é de um outro fornecedor, então se esse fornecedor ficar fora do ar, você também não vai conseguir ter esse acesso.

Speaker 3:

E aí tem uma coisa também que se fala muito em IA, que é aprender, ensinar. Né O que significa aprender e ensinar pra uma IA, pra treinar uma IA Então isso aí é um termo muito utilizado hoje em dia, principalmente quando você vê pessoas de mercado conversando. No seu dia a dia você pô deve ter que treinar uma IA pra uma determinada análise de crédito, por exemplo, assim por diante, o que é esse treinamento, esse ensinamento, o que significa isso?

Speaker 4:

Boa, então tem vários tipos de modelos de IA os não supervisionados e semi-supervisionados. Também vou falar dos que são supervisionados pra explicar um pouquinho. Então. Supervisionado, eu tô ensinando ele então, isso aqui é um cachorro, isso aqui é um gato, é como se fosse um professor com um aluno. O não supervisionado, por exemplo, então a gente tem algumas canecas aqui, a partir das características ele vai entendendo que isso aqui tá no mesmo grupo que esse que tá diferente do meu celular, por exemplo, por causa das nossas propriedades aqui, que tem em comum esses itens. Né Então, um ponto importante falando do supervisionado é eu ter os dados categorizados. Né então, ó, isso aqui é uma fraude, isso aqui não é uma fraude, etc. E além disso, né eu consegui decidir esse algoritmo e esse algoritmo na boa, o que que ele faz. Eu sempre tenho aqui alguns pesos que ele vai dando, então olha pra decidir o que é fraude. Vamos dar um exemplo A localização, onde essa pessoa mora, é uma variável muito importante. Qual que é o peso que ela tem pra decidir esse problema? né Então você vai ter lá um peso associado E aí a gente tem no final essa predição que foi feita com base nessas variáveis. Né então pode ser que o a localização seja uma delas, a quantidade já de transações.

Speaker 4:

Essa pessoa fez enfim várias coisas e no final tem uma predição. Essa predição eu vou comparando depois com o que é meu verdade, que é o ground truth. Né, então, primeiro eu faço isso pra comparar, depois eu vou fazer se eu gostei do modelo, eu coloco ele pra funcionar lá na vida real. Então, até o momento eu tô comparando com o que eu já sei. Então, isso aqui é fraude, isso aqui tá beleza, deu certo, não deu certo, etc. Eu tenho uma sequência de métricas que eu uso e uma função de perda. Essa função, na verdade eu quero sempre minimizar, esseendo de uma maneira muito resumida, com essa função de erro que a gente vai calculando. Quanto mais a gente vai melhorando essa função de perda, melhor eu vou calibrando esses parâmetros para ter uma previsão mais acertada E aí eu consigo depois aplicar isso em outro problema.

Speaker 3:

Interessante. E aí o que leva em consideração para a gente tentar diminuir esse erro, essa perca, quais são os fatores que são levados em consideração? A quantidade de dados, a quantidade de análise, o que é levado em consideração para conseguir diminuir até X% de perca E quanto. É claro que eu sei que depende de negócio para negócio, mas vamos colocar um negócio de análise de fraude, por exemplo. Quanto é a porcentagem de perca que a gente coloca aceitável numa situação dessa?

Speaker 4:

Boa, depende muito, assim, do negócio. Isso é bem importante porque assim nós, assim como uma pessoa científica de dados, você vai ter que trazer uma questão junto com a pessoa de negócio, assim o quanto que você tá disposto a perder aqui. Então, o que é mais importante pra você, o meu algoritmo ele errar falando que aquilo é uma fraude e aquilo não é uma fraude, ou eu falar que aquilo na verdade não é uma fraude e é uma fraude Não é possível.

Speaker 3:

Né, então é uma decisão ali que envolve negócio.

Speaker 4:

Envolve negócio total, Então um falso negativo em fraude eu falar que Falso negativo, Então eu tô falando que não é fraude. mas é, Isso é muito pior, É muito pior Vai causar prejuízo. É muito pior porque o meu celular, por exemplo, ele apita. Às vezes um banco meu falou olha você, sua transação foi cancelada. Negou. E aí eu vou lá e falo não fui eu que fiz. Então assim você fica assim, mas é melhor do que você perder sei lá 50 mil reais porque?

Speaker 3:

o banco não pergunta. O banco me pergunta É, eu prefiro confundir Quantas vezes eu preciso ir lá fazer a confirmação de rosto C6, te amo, eu te odiava.

Speaker 2:

O C6 é um inferno. Vou fazer um pix de dois reais.

Speaker 4:

Ele perdeu meu rosto Ele te humilha, ele te humilha. Olha pra cá, olha pra cima.

Speaker 1:

E agora ele mudou.

Speaker 4:

Cara é cheio de.

Speaker 2:

Mas agora, por favor, continua, dá três pulinhos. Eu até brinco Por dois reais. Deixa o cara, entendeu.

Speaker 3:

E assim a quantidade de dados que ele analisa com base nesses modelos é fundamental pra tentar diminuir essa quantidade também Totalmente.

Speaker 4:

E assim a parte de fraude não é um problema fácil. Por exemplo, que a gente tá falando porque você tem poucos casos de fraude comparados com os vários de não fraude, então assim é muito difícil pro modelo entender, até porque como é que ele vai aprender com tão pouco, né? então tem várias técnicas que você consegue fazer. Por exemplo, tem muitas pessoas que falam assim ah, então se eu tenho sei lá três exemplos de fraude e doze mil de não fraude, eu vou aumentar os meus exemplos de fraude pro modelo ficar balanceado. Mas isso também pode gerar um problema porque no mundo real não é assim.

Speaker 4:

E o modelo? ele modela o mundo real. Então você tem outros mecanismos, como por exemplo balancear os P's dessas classes, pra que você conseguir ter um pouco mais de equilíbrio dentro dessa predição. Então assim o mundo de Machine Learning é muito vasto. Justamente pra ajudar que você tenha essa previsão correta no final.

Speaker 1:

Na verdade, quando você, quando o modelo tá errando e ele erra milhares e milhares e milhares de vezes você tá evitando que esses erros né que eu falei até aqui no início, de aprender com os erros você está evitando que esses erros venham de fato a acontecer no mundo real. Vou dar um exemplo Em 2007, eu estive no Japão, tinha lá, fiz um amigo lá e ele falou não estou indo com a minha esposa para ter o filho no Brasil. Eu falei mas por que você vai ter o filho no Brasil? Ele falou não, os médicos daqui, deus me livre, eu não vou, não vou no médico aqui, de jeito nenhum. Fiz uma cirurgia de apêndice aqui.

Speaker 1:

Os caras não queriam me dar medicação, dizendo que não tá tranquilo, isso aí vai curar sozinho. E ele falou não, cara, vai dar uma infecção aqui. Não, não precisa de inflamatório, não tá tranquilo. Se inflamar, a gente dá um remédio. Ele falou cara, mas vai inflamar. E ele falou o seguinte falou que um médico bom lá é um médico com quem já morreu muita gente na mão dele, porque eles são tão bons em prevenção. Assim, segurança do trabalho extremamente metódicos, segurança disso extremamente metódicos, segurança daquilo, tudo extremamente limpo e tal. Então, assim eles têm poucos incidentes onde os caras se treinam em incidentes reais. Então ele falou cara, quase nada dá errado aqui, então os médicos não têm muita experiência de lidar com o problema, igual tem no Brasil. Ele falou assim eu vou pro Brasil porque lá os caras já estão.

Speaker 3:

Errado pra caramba Exato cara Sacanagem.

Speaker 1:

É mas o que acontece, Lida com acidente, lida com um monte de outras coisas. Os caras têm muito mais prática.

Speaker 3:

É não faz sentido.

Speaker 1:

A comparação E lá lá eu fiquei caramba, que loucura. E eu fiquei pensando da importância do erro pra aprendizagem E pensando nisso, a nível de IA, esse é um super poder da IA de poder simuladamente errar milhares de vezes e criar conhecimento a partir daí. Isso é muito bacana.

Speaker 4:

É literalmente errando. O que você aprende né É, não tem como né cara.

Speaker 3:

Literalmente no caso, Quando a gente fala de engenharia de dados, né porque é importante quando você fala de VE, engenharia de dados, a curadoria realmente desses dados, hoje O que você pode falar pra gente.

Speaker 4:

Ai, eu acho que uma coisa muito importante pra gente setar é que a gente pensa às vezes que o algoritmo ele representa a maior questão, a maior parte da qualidade, né do modelo. Mas na verdade o algoritmo que você vai selecionar, se é um SVM, né igual você estava falando se é uma agressão logística, né um.

Speaker 4:

LNM, isso é só a ponta do iceberg. Né Então, você, tendo o seu problema claro e definido, se você não tiver os dados gatos, você já não consegue fazer um bom tratamento aí desse modelo. Né Então, o modelo, a decisão ali é no final. Mas se esse modelo não tem dado bom, curado, limpo, sabe Diverso, você já tem um problema grande. Né Então, como é que você vai fazer uma predição Se é um cachorro ou um gato, se você tem dois negocinhos de gato e um monte de cachorro, ele vai às vezes falar que é um cachorro, na verdade era um gato. Né Então, esse é um exemplo muito básico, e não só isso. Né. Acho que uma questão muito importante é que cada Quando a gente fala de LLM, a gente vê muitos LLMs foram gerados, por exemplo, nos Estados Unidos, outros foram gerados na China, outros no Japão, etc. E isso carrega muito viés.

Speaker 4:

É isso que eu ia falar. Não tem como, não tem como, então não é. É impossível falar que a IA ela é justa, porque a IA ela tem, ela foi criada por um humano. Pode ser que o modelo lá, o modelo com os pezinhos dele, ele seja inofensivo, mas o humano que foi lá e escolheu qual técnica eu vou pôr, o class weight. Eu vou pôr o. Eu vou pôr o class weight, eu vou pôr o. Eu vou aumentar as classes de fraude pra ficar igual. Eu estou tomando essa decisão. Então o modelo não tô nem falando de dado o modelo em si, ele já não é justo assim, não é fair.

Speaker 2:

Então ele não é e aí você vai colocar. Já viu vários exemplos de aquelas IAs de Twitter.

Speaker 1:

Mesmo que cara, em um dia a IA virou racista, xenofóbico e tal, porque a galera foi do zoado, mas ela tá até em outra esfera. Não é nem a questão do dado.

Speaker 2:

Mas no próprio algoritmo, lá como é que o cara tá tratando isso, ou?

Speaker 4:

na escolha do modelo do negócio E não é tipo, por exemplo, se eu comparar uma tesoura né, uma tesoura em si ela é inofensiva. Agora, dependendo de como você usa, se é pra cortar papel, cortar às vezes uma mão numa pessoa, isso que é errado. Na verdade, não é nem esse o ponto, Porque a tesoura que a gente tá falando ela em si já tem uma questão, porque alguém já deixou ela afiadinha o suficiente, sente né os pezinhos né. Então isso é importante, falar né e as pessoas falam ah, é um modelo que não tem nada, ele é inofensivo.

Speaker 3:

Não é bem assim, não existe então modelo inofensivo sempre vai ter um viés, não importa qual né.

Speaker 4:

Você decide o quanto que pra onde esse viés tá indo.

Speaker 3:

Então, por isso que tem muita gente, às vezes muitas empresas que estão fazendo a sua própria LLM para não ficar dependente talvez dessas LLMs públicas, entre aspas, para tentar sair um pouco dos viés ou tentar controlar um pouco essa situação, Eu vejo que tem muitas questões.

Speaker 4:

Tem uma preocupação também de os dados das empresas estarem indo para outros lugares. Então algumas empresas têm uma preocupação de que os meus dados não podem ir para a OpenAI dos meus clientes. Então eu venho aqui, eu pego um modelo base já existente pra não criar nada do zero e imputo lá informações, né Eu faço um fine-tuning com as minhas informações. Tem um outro ponto também que eu não quero que isso saia pra internet né.

Speaker 1:

Então quero ter aqui um premise Tem pontos de.

Speaker 4:

Quero falar que eu tenho um LLM porque pra mim é importante no negócio.

Speaker 3:

Tem muito. Tem muito, ainda mais hoje em dia, né, cara É importante.

Speaker 1:

Eu tenho, tenho Tá aqui.

Speaker 2:

A minha é uma cópia da dele, mas eu tenho a minha com o meu nome.

Speaker 4:

Mas tem gente que faz né. Tem muita empresa que vê valor nisso né De alguma maneira.

Speaker 1:

Virou meio que uma corrida espacial. Né cada um tem que ter uma tecnologia, ver qual que tá mais avançado, e virou uma uma questão de poder também. Né Tem.

Speaker 4:

assim, quando você vê né a parte geopolítica, né eu acho que de fato você vê que tem muita LLM de algumas regiões específicas, né. E se você fala que o LLM ele tem os dados que as pessoas escolheram colocar, então se você perguntar quem é o dono do mundo, por exemplo pra um LLM aqui que foi criado nos Estados Unidos, ele vai responder uma coisa E ele vai responder outra coisa dependendo de um outro, outra região. Então também tem um pouco disso. Por isso que o pessoal tava com tanto receio do DeepSeek, né. Então por quê? Porque carrega também se a pessoa vai aprender com o LLM.

Speaker 1:

hoje em dia as pessoas estão aprendendo primeira coisa pra ele, a minha, e a Tatiana diz, se eu pergunto pra ela assim, quem manda Ela já sua esposa?

Speaker 2:

Ela já tá acertando.

Speaker 4:

A sua esposa concorda.

Speaker 1:

Mas olha só tem uma coisa assim vamos lá ao mesmo tempo que você faz perguntas nocivas, tipo como é que faz uma bomba, ou então uma pergunta racista ou alguma coisa. Assim ela está preparada para rejeitar aquele tipo de raciocínio, não te ajudar a desenvolver aquilo, mas também defendendo algumas propriedades, por exemplo nome de algumas pessoas, também asLNM. Algumas delas não respondem coisas sobre determinadas pessoas.

Speaker 2:

Se a pessoa colocar lá pra não perguntar tá de todo jeito que não responde O que ela entende como racismo. Alguém teve que setar isso pra ela. E aí é o X da questão O que é racismo pra uma pessoa pode não ser pra outra, entendeu? E aí você tem, depende muito do ponto de vista.

Speaker 1:

Isso é geral, cara. O que é pra uma é pra todo mundo.

Speaker 3:

Não, sim, mas é o que é, mas é o que é, não, não, eu posso falar que, por exemplo, a turma do Monark tem um pensamento diferente.

Speaker 2:

Ah sim, Entendeu.

Speaker 3:

Foi só um exemplo. Você falou de educação cara. E aí tá um debate muito interessante, porque pô você vê que a China, por exemplo, colocando aí já inteligência artificial no currículo desde cedo, A Mika teve todo um trabalho, pra não dizer a palavra China.

Speaker 3:

Ela rodou um geopolítico, não mas eu tive que falar da China. Não tem. Como Não tive que falar da China? É, eu tive que falar da China porque é um dos exemplos. Aí você pega por exemplo os Emirados já tem Open AI pra todo mundo. Né, todo mundo que mora lá já vai ter ele. O cara não precisa pagar os 20 dólares por mês, enfim. E aí tem muita gente falando do uso da IA na educação. Como é que é a sua opinião realmente do uso da IA como coadjuvante hoje na educação, seja educação básica, técnica, superior, enfim das diversas fases?

Speaker 2:

Ei, você aí já se inscreveu no nosso canal, Já ativou o sininho das notificações E aquele comentário E as nossas redes sociais. Você já seguiu a dos apoiadores da CESPRO, da CESCYBER. Bora lá, tá tudo aqui na descrição.

Speaker 4:

Eu acho que a AI é uma baita ferramenta super importante na educação. Eu super concordo de usá-la. No entanto, eu vejo um bom gap entre pessoas que aprenderam a base a lógica sem AI e depois aperfeiçoaram, afinaram o martelo, e aí as pessoas que usaram a base da IA Porque, como eu falei anteriormente, então a IA tem um contexto político também embutido nela, que tem os parâmetros, tem os dados, tem métodos de treinamento, tudo isso. Então, tudo isso é um viés de quem criou. Se você usa isso como a base e você troca o que antes era ensinado na faculdade, universidade, no ensino médio apenas por IA, isso pra mim é muito preocupante E acho que isso também gera muitas pessoas. Essa primeira geração que tá vindo aí agora, sei lá, a atual, é a primeira. Eu vejo que tá tendo a oportunidade de ver e ir junto no ensino fundamental assim.

Speaker 4:

Então eu acho que é uma preocupação a gente garantir que as escolas sabem que momento em B dá. Aí há como lidar com estudantes que vão trabalhar com isso no dever de casa e tal, e ter o senso crítico pra criticar né Porque cortar o uso. Eu acho que não vai acontecer, não rola.

Speaker 3:

O moleque vai jogar lá. Né, cara Você fala proibido. Cara, o moleque vai pegar o dever dele, o trabalho dele e vai jogando aí.

Speaker 2:

Ah, a gente sabe como é que é o?

Speaker 4:

estudante Mas ele sabendo criticar o que aí Ia fala. Eu acho que essa é a questão sabe Porque tentar?

Speaker 1:

proibir. Eu acho que realmente não vale a pena. Pra mim a questão tá três passos atrás, pelo seguinte como é que funciona a educação hoje? Do mesmo jeito que funcionava cem anos atrás? O cara tem lá um quadro negro ou verde ou branco, mas tá lá a pessoa vai e joga aquela informação ali e tem a galera sentada do outro lado e toda essa mecânica, as formas de avaliação, a forma como você faz uma prova e tal, aquilo ali é que é burlável. Com uma IA Você pode pegar lá uma resposta e jogar lá Aquele modelo é burlável. Mas se você pegar uma IA para avaliar o conhecimento de uma pessoa, aí ferrou.

Speaker 4:

Então um ponto que eu vejo, Anderson, é que assim você aprendeu sem IA. Então, quando IA, você usa IA pra melhorar teu dia a dia E pra aprender alguma coisa também. Obviamente, né Pra repaginar, ajustar, né Agora você sabe quando tá errado E você vai saber falar. É um processo crítico. Peraí, vou ver essa referência. Eu vou buscar mais informação. Tive a base, consigo falar sobre agora. O preocupante é você não teve a tua base aí. Você vai olhar lá e vai assim com os dois pés na porta seguir o que está sendo falado. Isso é preocupante. Né eu acho que essa é a maior dor que eu tenho nas próximas gerações, se a gente não mudar esse formato né. Então, pra tua pergunta da educação, eu acho que esse é o ponto.

Speaker 1:

Assim, Eu tenho então um ponto que eu acho muito legal nas LLMs, que é o seguinte, e eu acho fascinante, toda vez que eu vejo isso, eu elogio Se você chega numa LLM e pergunta pra ela sei lá qual é a raiz quadrada de 757, ela não te dá um número de resposta, Ela te dá toda uma construção de raciocínio e te dá a resposta, Então assim é claro que as pessoas podem ignorar tudo que veio antes e irem direto lá pro final E pro moleque de 14 anos.

Speaker 3:

Se vai ignorar tudo e vai pegar a resposta A minha preocupação é o moleque de 14 anos ali, realmente ignorar todo o resto e colocar aquilo ali, que é o que ela tá falando.

Speaker 2:

Você aprendeu sem o chat EPT, Então você consegue olhar e entender o que tá acontecendo. Pra um cara que tá novo, ele não tá nem aí com o meio porque ele vai ter sempre o chat EPT pra fazer o meio.

Speaker 3:

Na opinião dele. O chat EPT tá lá pra responder pra ele.

Speaker 2:

Pra ele, o chat EPT tá lá vai responder ele vai acreditar que aquilo é verdade, vai levar pra vida que aquilo ali é uma verdade E pode ser uma conta matemática, tudo bem. Um mais um é dois. Mas quando você vai pra outras matérias, aí a gente começa a ficar meio, Começa a ser meio perigoso.

Speaker 4:

O ponto bom é que eu vi que assim tem gente usando, porque aí nesse ponto que você falou, eu não tô passando nenhum contexto pra IA, eu tô, eu não tô passando nenhum contexto pra IA, eu tô usando o que ela tem. Agora, se eu pego os materiais que eu vi, eu vi um vídeo no TikTok que eu achei ótimo a menina. Ela pegou todos os materiais do que o professor mandou, o PDF, colocou na IA e falou me explica como se fosse uma fofoca.

Speaker 3:

E você é carioca aí é outra história, eu gostei é porque fofoca é uma coisa que ela gosta de ouvir, entendi.

Speaker 2:

É o jeito dela aprender. O cara vai criar o storytelling pra ela Legal.

Speaker 4:

Ela captura o conteúdo, foi pra prova.

Speaker 3:

Genial, genial, 10 vezes Aprendeu.

Speaker 4:

Então assim eu acho que é uma outra maneira de você fixar um conteúdo e outras abordagens de aprendizado que pro teu ponto, o ensino, realmente ele precisa de uma repaginada pra essa geração nova que tá capturando tanta coisa que eu fico gente, como é que cabe tudo isso nessa mente?

Speaker 1:

Tem que ser urgente, isso aí Eu acho que as formas de avaliação elas podem evoluir em muitos anos. Porque, por exemplo, uma prova com 10 questões, aquilo ali consegue aferir o teu conhecimento em um determinado assunto? Eu acho que não. Se de repente você coloca uma IA pra trocar ideia com a pessoa e cara avalia essa pessoa exprime, ela descobre o quanto ela domina desse assunto. Ela faz perguntas, ela mede conhecimento, mede raciocínio, ela puxa tudo o que consegue puxar daquela pessoa e chega com um veredito Ó, essa pessoa conhece 70% do assunto. Eu acho que pode ser um caminho legal pra evoluir a avaliação das pessoas, porque a forma de avaliar hoje é muito falha.

Speaker 2:

E eu nunca vi um jeito de melhorar isso. A gente entra naquele mesmo problema. Ela tá avaliando com base no que alguém disse. como ela vai avaliar?

Speaker 3:

Sim, mas tem escopo.

Speaker 2:

Então? mas o escopo é sempre definido por alguém. Então, por exemplo, pôr uma IA pra tomar uma decisão, Vamos pensar que a gente tá vivendo numa escola pública, num governo de direita. Essa LMM vai te dar respostas com um estereótipo de direita.

Speaker 3:

Se o governo quiser colocar lá porque é o ministro que tá lá da educação, pode falar isso E se vira-se pra esquerda.

Speaker 2:

A gente pode ter um Infelizmente é verdade. E aí eu tô dizendo nem um lado nem o outro. Tá, eu tô dizendo que pode acontecer, ou com algum pensamento que alguém queira imputar numa população, e aí a gente tá retendo isso E sempre é possível, E aí vem pra um outro ponto, e aí gente é.

Speaker 1:

Pô bem-vindos à humanidade.

Speaker 3:

Sempre foi, mas agora em grande escala, né Em grande escala com grande quantidade de informação onde uma pessoa está acreditando em tudo que vem dali, como se fosse sempre a verdade Aí vai para outro ponto, que é a questão de regulação ética e etc. Como é que você está vendo, acho que está bem devagar ainda né. Se fala bastante, mas vejo pouco acontecer Essa questão de pô, quem é responsável por aquela informação, aquela ação da IA. A gente teve uma brincadeira aqui uma vez que pô, daqui uns dias vamos ter que mandar uma data de prisão pro chat EPT, vamos prender o chat EPT, vamos Então assim, o que você acha dessa questão de realmente quem vai ser accountable por aquela questão? Como é que é o seu ponto de vista hoje que ainda tem Se fala bastante, todo mundo fala que tem, tem, tem, mas na prática se faz pouco ainda né.

Speaker 4:

Eu acho que o Brasil está trazendo agora bastante intenção no assunto. Né Então entendemos agora que realmente o Brasil tem um espaço. Né Então eu vejo até iniciativas do governo. Recentemente, acho que foi semana passada, lançaram então até um, como se fosse um marco, mesmo falando o que é IA, o que a gente compreende como IA e o que é importante a gente tomar precaução, como nós achamos que a IA pode se conectar com a nossa estratégia de educação. Então achei interessante. Tem um documento. Até compartilhei no meu LinkedIn. Achei bem bacana que é um posicionamento.

Speaker 4:

A gente precisava desse posicionamento eu acho que isso é importante e até mesmo como a gente planeja usar IA. Então eu vejo até alguns estados brasileiros tentando fazer seus próprios modelos pra testar como que isso funciona. Então acho que é um pouco do que você estava comentando. Então esse esforço de a gente ter IAs proprietárias e até começar a ter os mesmos, acho assim pode ser que os estados queiram criar suas IAs. Né a gente tá falando, tem já empresas que criaram suas próprias IAs e mas algumas não compartilham esses dados. Então se a gente começar a compartilhar tais dados, aí ia ficar bacana pra gente conseguir aumentar esse dataset e aí ter um modelo talvez né que consiga ser mais conectado em diferentes partes do Brasil E, falando nisso, para chegar na periferia, chegar realmente ali na Vamos dizer na massa o que você acha que tem que ser feito hoje com relação a IA.

Speaker 4:

Nossa, a conversa na periferia vai muito além de IA. Né eu acho A educação mesmo eu acho que é uma pauta muito importante e a gente tem que andar algumas casas, né a gente tá falando aí de questões que pra mim não existem. A meritocracia não existe e essas pessoas que estão lá, elas precisam de acesso, né à tecnologia. Primeira coisa eu acho pra gente democratizar isso é que o bom do chat GPT é que ele deixou acessível um negócio que antes era só empresa, que tinha medo ainda de usar IA. Quando chegou o chat GPT, pf né pessoa física começou a usar e falou nossa, tá aí a IA, ela pode me ajudar.

Speaker 3:

Sim, isso eu também achei sensacional. Você vê, cara, eu tava. Ela pode me ajudar. Sim, isso, eu também achei sensacional. Você vê, cara, eu tava A diarista lá de casa, tava usando a IA pra ver a questão de receita, um monte de coisa, e a grande disrupção foi essa, foi.

Speaker 2:

Popularizar uma tecnologia que pô? a gente sabe que a IA não é nova. A gente vê, por exemplo, a IBM, mesmo com o Watson, porra. E aí veio o chat PT e deu um tapa na cara de todo mundo.

Speaker 3:

Tá aqui galera Popularizou, deixou aí as LLM. Isso aí foi algo bacana, e aí foi onde cara todo mundo viu o poder da, ferramenta na mão né.

Speaker 4:

E aí eu acho que esse é um ponto que é acessível, né As pessoas, hoje elas só precisam ter um celular, e aí pelo menos essa questão dos aparelhos ficando um pouco mais baratos e as pessoas conseguindo, né mesmo em lugares que são menos favorecidos, terem acesso. Cara, eu tenho uma IA no meu celular. Se eu tiver uma internet, se eu tiver um celular, eu consigo ter acesso assim em gama de informação. Então assim agora pra mim ficou bem mais acessível do que um dia foi a gente conseguiu colocar a IA nesses lugares que são tem menor poder aquisitivo, menor acesso. Então acho que esse é um ponto. Aí aí vem aquela questão né Será que uma, uma pessoa consegue chegar até ter a escola, porque pra mim o problema da periferia não é nem se eu consigo eu tenho um celular, é se eu consigo deixar os meus três irmãos porque eu cuido da casa. Eu tenho sei lá dez anos e eu sou a pessoa que cuida.

Speaker 2:

Então assim, pra mim As preocupações deles estão às vezes cara o que eu vou comer hoje.

Speaker 4:

Então, incentivos assim mais de política pública, mesmo assim, de ter um ônibus que é gratuito, leva as crianças até um lugar e lá vai ter os celulares, né os equipamentos que empresas doam, né, coloco, financiamento privado mesmo. Então assim pra mim tem ali a questão que a IA, pra mim ela tá acessível. Agora tem outras questões que é eu consigo chegar lá, eu consigo ter comida no prato dessa galera que aí resolve, entendeu?

Speaker 3:

Porque vai ser bem importante. Essa galera também tá presente ali pra ter realmente uma amostra de dados ali que abrange todo mundo, né isso? eu acho que é por aí, é Mi eu tive com a vontade eu tive lá no sul agora há pouco.

Speaker 1:

Até abraço pro Trigo né nosso Vivente tava lá sapateando com o Vivente, nosso amigo, e o que que eles fizeram? a gente foi pra um evento. Eles colocaram lá um webcam, colocaram a aplicaçãozinha rodando local, que era de acho que era uma aplicação para segurança no trabalho. Então tinha lá o vídeo das pessoas ao vivo no evento e ele via se o cara estava usando EPI, se ele estava com capacete, se ele estava de óculos, se ele estava de luva. Era só isso. Então, se o cara não tá de luva, tava lá tudo vermelho, o cara bota a luvinha, ficou verdinho, tá de luva, tá de óculos, e tal. Eu falei pô bacana. Aí eu comecei a trocar ideia sobre a aplicação. Veja bem, essa é uma aplicação limitada. A gente não tá falando de uma LLM, a gente tá falando que a aplicação não tá rodando ali. Né Velocidade da aplicação. Sensacional, cara, tá rodando onde? Só nesse servidor aqui Tá conectado online. Nada online tá rodando aqui. Beleza, o que é esse servidor aí? Ah, esse é o servidor Dell. Falei quanto custa o servidor desse? Ah, 600 mil.

Speaker 1:

Falei 600 mil reais. É, ele falou mas a gente não está usando tudo ali. Não, eu falei não, não por quê? ah não, porque o algoritmo ele roda mais na CPU do que na GPU. Ele tem uma GPU gigantesca, mas esse design ali está rodado para a CPU. Eu falei pô legal, bacana, então torna ele mais acessível. Você consegue rodar ele em CPU. O que ele está fazendo está jogando frame a frame, está reconhecendo, está voltando com informação para lá, a forma como você vai desenhando o algoritmo. Você também tem possibilidade de controlar o consumo da máquina. Como é que vai ser essa aplicação? vai rodar local? se não vai rodar, o que que você, o tempo de resposta também da aplicação tem, coisa que se torna inviável de você jogar o dado pra internet pra processar em outro lugar e voltar, você tem que rodar local. Como é que essa coisa na vida real, lá no campo, como é que se toma essas decisões?

Speaker 4:

Boa, a gente tá falando aí de edge computing, né? Então assim às vezes equipamentos muito menores, gadgets mesmo que vão ter esses modelos, aí entra alguns modelos menores quando são desenvolvidos, então a gente vê lá o Lhama com vários bilhões de parâmetros. Não é isso aí que vai pro campo. Pro campo vai um modelo menor. Então se você for, por exemplo, no Hugging Face, tem vários modelos muito menores, abertos que você consegue colocar nesses devices um pouco menores Que esses Tiny LLM, vários bem pequenininhos. Então já existe isso, justamente porque não vai ter às vezes internet, não é um Starlink que vai às vezes ser possível de comprar.

Speaker 1:

Vai ter um monarquiajo Exato, porque as pessoas estão pensando em aplicação de IA e sempre assim existe uma tendência, por causa da hype das LMs, pensar em IA nesse formato. Cara, não é isso, pera. Aí Você pode ter um modelo menor, você pode ter um modelo rodando local. Sim, você tem possibilidade, de acordo com a necessidade do teu negócio E tem framework.

Speaker 4:

Né então, por exemplo, o TensorFlow, que é um dos frameworks que a gente utiliza pra desenvolver também modelos de inteligência artificial, ele tem ali dentro dos seus capabilities pra você fazer modelos menores, justamente pensando não só em pessoas rodando, em smaller devices, tipo vão rodar lá no campo, mas também no celular. Então, ah, eu quero ter uma LLM rodando no meu celular, assim um modelo de Deep Learning você consegue. Então assim já é possível. Né, já é uma coisa. Até antes desse boom aí do chat GPT, muitas pessoas já tinham modelos rodando. Não eram generativos, mas eram modelos de detecção, por exemplo de planta doente tá lá no meio do campo. Você quer detectar? Não vai ter internet, não tem como.

Speaker 1:

Tem que saber ali o que tá rodando O catálogo de possibilidades ele traz pra você uma resposta.

Speaker 3:

É isso, é isso, mi, no seu dia a dia lá na C&T. Abraço o pessoal da C&T. A C&T é cliente nosso lá, parceiro nosso há bastante tempo. Estive, abraço Wagner e aí assim depois eu vi seu LinkedIn ali foi subindo. Você é gerente lá de dados e a começou lá como cientista de dados. Pós GPT teve uma demanda maior de trabalho. Lá no seu dia a dia você viu uma demanda maior. Surgiu novas ideias, novas coisas serem feitas ou seja esse boom que foi pro mundo externo, pra todo mundo viu no seu dia a dia também teve alguma coisa nesse sentido. Começou a gerar demanda pra caramba, coisa pra caralho pra desenvolver como é que foi.

Speaker 4:

Ah, com certeza.

Speaker 3:

Imagino Essa era a minha curiosidade que eu falei pô a Mi tava fazendo isso antes do GPT vir. A hora que o GPT vir deve ter chovido demanda ali. o negócio deve ter ficado uma loucura.

Speaker 4:

Assim eu comecei na CIT como data engineer, então assim eu queria muito conversar em inglês e ter uma oportunidade na CIT. Eu sempre gostei muito da CIT porque ela é uma empresa muito diversa, focada na IA tradicional. Né Vamos falar assim, aquela que a gente falou anteriormente. E aí quando veio esse boom aí do OpenAI, obviamente foi um movimento de criar hipóteses e a gente entender como que isso funciona. Isso realmente pode deixar a gente mais eficiente em algum momento. Tem alguma parte do nosso ciclo de desenvolvimento de software que de de fato pode ser otimizado com esse produto. Né, então foram sendo feitos vários testes, porque é experimentação, é sair na rua, é testar, ver qual que é o nosso gargalo hoje, o que que tá doendo. Vamos por IA aqui nesse fluxo, mas o que que a gente vai fazer com IA, então foi legal que foi esse processo, até mapear. Né como isso é feito com IA e sem IA realmente tem uma melhoria. Então testes também, teste A e B teve que ser feito.

Speaker 4:

Nossa Foi muita coisa. Eu fiquei muito feliz por poder levar a parte científica do teste A e B pra isso. Né então, se você tá, por exemplo, num sprint e aí um deve que tá trabalhando com IA e o outro sem IA. Não é só essa questão que você vai avaliar, mas as tarefas são iguais. Um tá fazendo uma API em sei lá usando Node e a coisa nova pra ele Node. E se ele programa sei lá em Python e vai fazer em Node, já é uma diferença aí.

Speaker 4:

Então isso afeta teu teste. Né então era LLM, é, mas aí tem um viés científico de teste que eu gostei de trabalhar. Né Então acho que Pude aplicar ali, realmente Pude aplicar numa questão que era uma dor, que é a mensuração de eficiência, produtividade. Então foi legal porque foi um teste. A empresa ela postou e tem dado muito certo. Né Hoje eu tô trabalhando nessa parte de liderança, essa estratégia de IA e é muito legal assim você poder ver que tem clientes que realmente tem essa melhoria, essa eficiência e a gente vendo, né vamos colocar aqui e agora quando a gente coloca IA aqui caraca, isso aqui ficou muito mais rápido o que a gente faz. Agora temos um outro problema que é muito código. Quem que vai ficar aprovando os pull requests?

Speaker 3:

então a IA tira os problemas, que vai ficar aprovando os pull requests? Sim, então aí ela vai ter que gerar uns problemas e vem com outros, né E inventa outro pra poder resolver. Né Sensacional, eu imaginei que eu fiquei pensando caramba, cara. Outra pergunta que é curiosidade sim, pô, você teve oportunidade de ir pra Singapura, vegas, falar de IA, de machine, vários países. Como é que está o Brasil em relação ao mundo, em relação ao que você viu fora? Você teve a oportunidade de falar né em nome do Google, em nome de várias empresas em outros países, enfim, como é que nós estamos bem posicionados, estamos atrás, estamos na frente. O que você pode dizer do mercado brasileiro e o mercado internacional.

Speaker 4:

Nossa é uma baita, pergunta É uma baita responsabilidade Exato é difícil É ou não Nossa é uma baita pergunta, É responsabilidade responder Exato, É difícil, É assim. Acho que vamos considerar então o contexto que a gente tem no Brasil, né O Brasil é um país, que ele é bastante desigual.

Speaker 2:

Começa por aí.

Speaker 4:

Então na questão de IA a gente continua com as mesmas desigualdades que a gente tem, que a gente não resolveu De educação. Comparar o Brasil com o Singapura é muito unfair, porque o Singapura tem política pública há muito tempo focada em educação, é outro nível, assim sabe, e lá eles tem muita questão de investimento focado em educação você pode perder a guarda do seu filho se o seu filho for mal na escola no Singapura, só pra você ter ideia, é um negócio muito sério então, assim é óbvio, tem essas questões de igualdade.

Speaker 4:

Mas eu tô vendo que a passos até lentos a gente tá indo e eu acho que a gente agora tá ganhando a clareza, assim sabe de qual que é o real, assim o objetivo que a IA tem, como a gente consegue aplicar. E agora com essa questão de regulação indo pra frente, né até mesmo com a questão de dados, né que avançou bastante, então assim a meta foi meio que parada. Aí, viu, você não vai avançar assim não Sim exato.

Speaker 4:

Aí colocaram lá o formulário pra aceitar de você compartilhar seus dados enfim. Então eu acho que a gente….

Speaker 3:

Isso foi legal né cara. Eu achei bacana, foi um emocionamento assim Eu achei que o pessoal da NPD fez aqui não velho, vamos regulamentar porque senão todo mundo chega lá, vai treinando, usando os dados, sem pedir, sem falar nada. Eu achei um dos trabalhos, das ações que a NPD um abraço pessoal tomou, que eu achei bem, eu achei ótimo assim não é a casa da mãe. Joana é isso se posicionar.

Speaker 4:

Né então a gente tá se posicionando bem. Eu acho que a gente tem um contexto bacana pra começar agora a expandir isso, né então? eu acho que é natural a gente ver mais iniciativas de testar seus próprios LLMs. Eu acho que a gente vai começar a fazer isso com maior avanço daqui pra frente.

Speaker 3:

Mas eu tô vendo que a gente tá caminhando bem. eu tô gostando da direlegas da área de TI, de segurança de outros países é que o brasileiro, ele tá muito mais aberto a testar na prática, literalmente dentro das empresas, do que outros países desenvolvidos, países europeus, americanos, enfim. Eu vejo que o pessoal tem muito mais receio de testar, de colocar, de fazer um teste AB, uma questão de IA, de mexer em que tá certo que é no Brasil. No Brasil eu acho que o brasileiro é bem aberto a esse tipo de situação. Você sentiu isso também ou não?

Speaker 4:

Eu sinto, eu acho que tem uns prós e contras aí também.

Speaker 3:

Vamos lá.

Speaker 4:

Porque antes a gente saiu de um cenário onde as pessoas tinham receio de testar IA. Né, então eram só algumas empresas que testavam e ainda assim com medo de colocar meus dados ali né, porque eu não sei muito bem como o IA funciona.

Speaker 4:

O IA é caro. Aí agora a gente tá lá gastando token, token, token, nem sei pra onde tá indo. Algumas empresas querem só falar que estão usando o IA e às vezes elas usam um app do chat da OpenAI. Então você tá contratando às vezes um serviço que você não sabe o que acontece. Um envelope, um envelope, e aí tem a API da OpenAI e alguém tá vendendo isso pra você Isso e tá tipo cobrando e ganhando em cima.

Speaker 3:

Tá cheio de envelopadora aí né cara Tá recebendo um prompt.

Speaker 4:

Tá armazenando uma base. Você não sabe pra onde esse dado tá indo.

Speaker 3:

Entendeu Se é um servidor ali que é um MongoDB A transou extremamente polêmica. Até se você for analisar, é a quantidade de empresas de startup, de IA que tem no mercado e a maioria delas eu fiz essa análise dias pra trás que eu tô lendo muito a respeito que tem de envelopadora, que literalmente tá pegando ali as LLMs de outras empresas e melhorando, entre aspas, seu prompt, amarzenando sabe Deus onde e te entregando a resposta via API. Não tá no GB, né Tem demais. Isso aí é perigoso, perigoso e desnecessário, né.

Speaker 4:

Você tá armazenando dados de prompts, que são dados que têm informações identificáveis das pessoas. Né, Então, se você coloca aquilo ali, sem anonimização, sem uma máscara no banco de dados, é muito preocupante. Então, assim, quando você vai desenvolver hoje eu desenvolvo o sistema de A generativa né Então tem toda uma preocupação em guard-rails. Né, Tanto na entrada quanto na saída, Você consegue saber se, ah, tô usando o da OpenAI, por exemplo. Mas qual que é o termo de usar a OpenAI? Porque uma coisa eu garanto aqui, mas eu tô mandando pra lá.

Speaker 3:

Daí pra frente, é o termo dele exatamente. E lá.

Speaker 4:

Como que tá? Ah tem uma retenção, do quê Retém? por quê Trinta dias? Ah, mas por que que retém? Ah, é só pra questão de abuso e tudo mais. Ah, pô, mas isso todos os providers fazem A não ser que você tenha o seu próprio LLM, LLM que é outro estado.

Speaker 2:

Então, assim, eu acho que as pessoas não estão indo nesse nível Não, e essa informação não necessariamente que é via uma LLM de terceiros, mas a informação chegar lá. eu retenho os seus dados, esses dados são enviados pra fora, retém e tudo mais e o cara aceitar legal. mas o foda é você pega uma informação de um terceiro, joga numa LLM pública de uma outra pessoa e a responsabilidade disso fica com quem O problema é que eles, não, as pessoas não têm o senso crítico pra saber.

Speaker 4:

Então as pessoas explicam e aproveitam a ingenuidade Sim, e aí que é o problema sabe Que é um outro problema?

Speaker 2:

né, essa é a falta de conhecimento sobre a tecnologia por parte de quem tá querendo usar. Muitas empresas só querem usar, não importa como, não importa o risco.

Speaker 3:

E aí é uma reflexão né Que às vezes os gestores, o pessoal que quer entrar no hype, vamos tentar Pra que você vai usar, Como você vai usar, Qual problema você quer resolver. Vamos parar pra pensar e não usar só por usar. Né Porque às vezes tem gente querendo usar só por usar e não tá dando.

Speaker 4:

É a resposta pro seu problema, porque talvez não seja né resposta. Pro problema é o famoso teste A, B às vezes, mas aí talvez ele só vai descobrir se ele testar, ele tem que testar agora vai experimentar com o que. Qual que é esse wrapper que você vai testar aí é o.

Speaker 3:

X da questão.

Speaker 1:

E aí é a maior parada, porque assim não só testar se você for pelo caminho de você educar, também você construir ali o teu aprendizado de máquina. Você vai ter que entender daquele universo, vai ter que ter alguém que opera aquilo.

Speaker 3:

Aí, já é outra parada. Vou sair para ter uma LLM interna Legal Aí a gente vai.

Speaker 2:

Qual é o custo disso? Qual é o custo de manutenção? É muito profissional envolvido, tem metodologia em torno disso. Que é?

Speaker 1:

assim você domina o assunto, você freia um pouco, você solta um pouco, você tem métodos de, de tem empresa que não tem esse ponto pois é, e isso vai de acordo com a tua necessidade. Então assim uma coisa sob medida é muito diferente de você jogar lá numa LLM e lidar com as variáveis que eles voltarem pra vocês.

Speaker 3:

Isso é com certeza na sua opinião, mi o que você acha mais preocupante? Uma IA super inteligente, inteligente pra caramba, ou seja aquela que tá superando um ser humano? vamos dizer assim, né como diz o outro, ou então a mal treinada.

Speaker 4:

Olha, eu vou dar Que dia é hoje mesmo Dia 23?.

Speaker 3:

Hoje é 23.

Speaker 4:

23 de junho de 2025. Até agora, pra mim, com toda certeza é uma IA que tá sendo treinada, e de maneira errada. Com toda certeza sim, porque a IA super inteligente. pra mim ela ainda é uma. pra ser muito sincera, é uma hipótese Com as arquiteturas que a gente tem hoje pra esses modelos.

Speaker 3:

Fala isso pra mim ser antes que ele é preocupado pra cara, que ele acha que o mundo vai terminar, É muito mais preocupante do que tá acontecendo agora, porque um outro é uma hipótese, o outro é uma realidade.

Speaker 4:

Então a gente hoje tem IAs que são treinadas de com peso errado, com viés intencional pro erro ali, né do que tá sendo colocado IAs sendo usadas em momentos errados na trajetória de desenvolvimento de software e mesmo assim no de fato, assim no nosso dia a dia, então assim você coloca, às vezes tem IAs que estão tomando decisões totalmente erróneas, assim Não tem IA fazendo defesa de alguns advogados, que a IA colocou lá uma jurisprudência que não existia, invent E a Yá colocou lá uma jurisprudência que não existia, inventando, alucinando, apresentando pro juiz um monte de coisa que não existia.

Speaker 4:

Ou até uma defesa, tipo assim, reconhecimento facial de uma pessoa ali que tá Se ela deve ou não ser presa. Um monte de coisa errada. Assim sabe Direto, assim Passou.

Speaker 2:

A Yá falou, isso vai fundo Às vezes até a pergunta que você tá fazendo pra essa IA, porque às vezes a IA também não é tão mal treinada, mas ela não tá treinada pra dar a resposta que você quer. Então a pergunta que você faz pra utilizar aquela IA também é um, é um problema. Eu vi em algum lugar uma IA que foi jogar xadrez com um atalho e perdeu Porra. a IA não consegue superar um Atari no modo fácil.

Speaker 4:

eu lembrei daquele do cara lá do xadrez que o cara né o cara lá é mais fraco do que um Atari.

Speaker 2:

Não, mas foi usado da maneira errada. Tá aí, eu vou citar.

Speaker 3:

Vou citar aí o robô aqui, eu sabia né em algum momento ia chegar a Zimove o bolão hoje aqui, quando ele ia tocar em uma hora de gravação vamos lá aquele momento em que o o cara questiona pra uma, pra um robô?

Speaker 1:

ah pô, mas você consegue compor uma sinfonia, o robô não. E você? depende de quem que ele tá falando o cara não ganhou do xadrez do Atari. Tá, você ganha.

Speaker 4:

De repente não entendeu então assim as inteligências são específicas se você for robô, você não esperava que fosse fazer isso pra essa, não, já imaginava qualquer outra coisa, assim eu sempre.

Speaker 3:

Ele cita muito.

Speaker 2:

Mas qual pergunta você está fazendo pra ela?

Speaker 1:

Olha só, o ser humano está perseguindo a ideia do EGI, Está perseguindo Essa inteligência geral, essa máquina Cara existe. Essa coisa É uma corrida espacial. Estão perseguindo isso. A gente tá longe disso, a gente tá perto disso. É outra história. A gente nunca esteve tão perto, mas a gente ainda tá longe. A gente nunca esteve tão perto. Então, assim, quanto tempo vai levar?

Speaker 2:

Essa aí que você falou que vai dominar o mundo. vou pôr ela pra jogar com o Atari e eu Já era entendeu, dominar o mundo beleza Só depois que você ganhar do Atari.

Speaker 3:

Já era do Atari, aqui, meu amigo Sacanagem, né Cara sem ser Batalha final Chate PT.

Speaker 2:

Quem ganhar domina o mundo. Mas chat PT. Quem ganhar domina o?

Speaker 1:

mundo. Mas assim são coisas que a humanidade está perseguindo, é símbolo de poder e tal. Então assim, ah, vai ser fim do mundo. Nada disso estou falando, cara. É uma coisa que se persegue, é uma coisa que estão buscando e eventualmente a gente vai acabar chegando lá. Assim como a computação quântica que pô foi do hiperteórico até hoje chegar a algum grau de realidade, a gente vai chegar num ponto em que vamos misturar as coisas e nós vamos ter E aí você tá falando por exemplo, um aprendizado de máquina usando computação quântica, mas é batata Uma hora vai chegar

Speaker 2:

lá, ah não mas vamos entrar em computação quântica, não Porque minha cabeça, ainda tá doendo do episódio quântico.

Speaker 4:

É pra lá que nós vamos? Eu não entendi direito.

Speaker 2:

Ele tem que poder dizer Ou é zero e um. Não dá pra entender cara.

Speaker 3:

Cara, assim a gente se prende com muita coisa, né A gente que não tá no dia a dia viar como você. Mas o que você viu nos últimos tempos, assim que realmente te surpreendeu, assim Falei pô, caramba, isso foi foda E realmente teve algo que te surpreendeu. Ou você que já tava ali estudando, ah, ok, faz parte, você consegue ver os códigos. Que pra mim pô, sendo bem sincero, é que eu vi o Amo Iá girando umas imagens ali, o GPT girando aquelas imagens do caramba ali, de acordo. F imagens ali, o GPTG dando aquelas imagens do caramba ali, de acordo. Eu falei caralho, esse negócio é muito foda, entendeu, fiquei viajando me surpreendeu pra caramba o realismo, o View 3 ali, o View 3 do Google, cara, fiz uns videozinhos ali com Fiquei, assim o que é aquilo?

Speaker 2:

Os memes cara tão lindos. Exato O TikTok tá assim, tá picocando.

Speaker 3:

Meme de brasileiro, top velho, eu fiquei impressionado. Agora eu imagino você que já trabalha com IA há bastante tempo. Você vê isso, aí você se surpreende também. Tem algo que te surpreende ainda. Ou você fala pô, não faz sentido.

Speaker 4:

Não total. Eu vejo os POV lá do Viu.

Speaker 3:

Você está no Egito e você está andando num camelo. Aí a pessoa mostra assim 0.5, né o outro angular.

Speaker 4:

Amém, então, assim eu olho isso, eu acho que o que tá me impressionando mais é o quanto tá acessível, então tá ficando cada vez mais barato pras pessoas usarem. Então o poder computacional do hardware tá aumentando muito, o que também me preocupa por conta da questão de energia, a questão do cara tá cada vez mais.

Speaker 3:

Ninguém nunca tá falando de energia ainda porque essa conta deve ser cara. Viu, essa energia, lá que é muito cara.

Speaker 1:

A gente tá planejando usinas nucleares privadas pra rodar essa coisa toda.

Speaker 3:

Hoje não é um bom dia falar de energia nuclear. É bom falar que não é nuclear. Ela já dá bom episódio, então vamos lá assim véi.

Speaker 2:

A gente tá mais com medo da treta que tá rolando lá, do que a IA vai dominar Que mundo que a IA vai dominar, eu tô falando sobre geração de energia nuclear para alimentar.

Speaker 1:

Ninguém fala de nuclear aqui Para que possamos assistir o programa do Miranha no Instagram. entendeu, É esse o contexto que nós estamos vivendo?

Speaker 4:

Eu acho que não vai rolar nada nuclear pelos próximos 10 anos privados, ou talvez 50 anos entendeu Mas me impressiona muito assim a galera como eles estão usando, porque tá misturando muito essa questão de criatividade e as pessoas colocando realmente esses modelos pra rodar. Então acho que isso é o que tá mais me impressionando, assim sabe, juntamente com algumas capabilities. Por exemplo, foi lançado aí pelo Google recentemente no Google IO, e cada semana estão lançando alguma coisa nova. Agora o Gemini. Ele consegue, quando você está conversando com ele, ele entender se, por exemplo, estou falando com você aí o Anderson me chama. Aí eu olho para o Anderson, falo com ele e você é o Gemini. Por exemplo, você vai conseguir capturar como Gemini que eu falei com o Anderson, não com você.

Speaker 3:

Ele vai entender que você deu uma pausa com ele. Isso é sensacional.

Speaker 4:

Isso é muito legal.

Speaker 3:

Então essa nuance da voz sabe O GPT tá fazendo também Começou, mas ainda não tá tão bom. Não tá tão bom Mas ela dá, ela entende que antes alguém interrompia e começa tudo certo.

Speaker 4:

Agora ela já entende que pô não é como ela mas ainda não tá tão bom. Então isso é muito legal E assim, falando em pesquisa científica, assim eu acho que isso é bem interessante.

Speaker 3:

Sensacional. Eu tinha dúvida se tinha algo que surpreendia a mim nesse negócio. Isso é uma.

Speaker 1:

Assim é muito legal que Talvez as pessoas olhem e fiquem Nossa e fiquem nossa cara, mas assim é uma melhoria de algoritmo. Você vê claramente, opa melhoraram o código aqui e ele tá agindo de forma melhor. Ele tá trabalhando melhor. As cidades estão chegando pra ele, né? Sim, isso é muito diferente de uma inteligência de fato né, Não é caramba, ele entendeu. Não, ele só tá processando melhor E melhor.

Speaker 3:

vamos ser sinceros, Pô, eu vi aí cara, e aí de novo brasileiro é bom, né, porque é brasileiro consegue pegar o negócio, deixar o negócio engraçado pra cara. os memes, tão assustador vei eles começaram a fazer e não.

Speaker 4:

O que é mais bizarro é que estão monetizando isso. Criaram um perfil de uma apresentadora e as pessoas acompanham.

Speaker 3:

É cara, mas ela é maior, é Marisa Maior aqui nessa mesa é engraçadíssimo o negócio inclusive está convidada Marisa Maior.

Speaker 1:

Se quiser participar do pote de café, a gente grava com ela.

Speaker 3:

Você vai trazer ela aqui vai fazer online vai fazer online está aqui o desafio Marisa. Duvido você vir online. Sei lá, se a foto tá bom, a gente pode ficar aqui até amanhã, mas chegou naquela hora.

Speaker 1:

né Adoraria, Eu queria inclusive ter cavocado mais questões técnicas com a Mi, porque assim a Mi sabe tudo É radical.

Speaker 4:

Nós deveríamos. Tem que fazer outro agora. Tem que fazer os dois.

Speaker 3:

Tem que nós deveríamos. Tem que fazer o outro agora.

Speaker 1:

Tem que ativar a agenda tem que chegar numa camada mais introdutória e depois ir descendo que senão não dá, então tem que ter uma continuidade, com certeza, mas Mi está em suas mãos o microfone. Agora, para suas considerações finais, você pode deixar mensagem motivacional. Link jabá, pode ficar à vontade.

Speaker 4:

Fala ali na três e É isso aí, boa Gente, obrigada pelo convite, foi muito incrível participar do papo com vocês. É sempre muito gostoso, uma troca muito interessante. Então, obrigada mesmo Agradecer você aí de casa que acompanhou a gente. Também tava aí com a tua bebida favorita, aqui assistindo a gente. Então, obrigada, e se vocês gostam dessa parte de ar, tem interesse, querem aprender mais? me sigam ali no arroba, explica Mi. No LinkedIn também. Tô por lá No YouTube também postando vlogs de Las Vegas, singapura. Então, misturando um pouquinho das coisas. Também tenho curs, singapura, então, misturando um pouquinho das coisas, também tem o curso. Então entra lá no Instagram e a gente vai conversando e eu ajudo você nessa jornada aí tão incrível que já tô só começando, é isso Sensacional, mi.

Speaker 3:

Os links vão estar todos na descrição do episódio, então, muitíssimo obrigado. Uma honra novamente ter você aqui e os microfones estão sempre abertos. Esperamos gravar novamente em breve, obrigada valeu demais.

Speaker 4:

E aí a gente fala tecnicamente no próximo É, vamos pagar.

Speaker 1:

A gente tem muita coisa né Vale a pena porque assim quem quer realmente colocar a mão na massa aí mais fundo nisso tem que sair dessa camadinha de LLM, sair da camadinha dos memes e ir pra dentro, entendeu? Então fica aí E é isso. E obrigado a CS Pro que mais uma vez trouxe pra gente mais um episódio de Podcafé Tech.

Speaker 3:

É isso aí Sensacional.

Speaker 1:

Beijo galera Podcafé. Quero café, Quero café.

People on this episode