Resultados de busca
225 resultados encontrados com uma busca vazia
- Chega de hype: CEO da Microsoft quer IA como ferramenta de amplificação humana, não substituição
O CEO da Microsoft, Satya Nadella, voltou ao centro do debate sobre inteligência artificial ao defender que empresas, governos e a sociedade precisam superar o “slop” o excesso de hype, promessas vagas e resultados pouco claros e avançar para uma nova fase de adoção da IA. Para Nadella, chegou o momento de enxergar a tecnologia não como uma ameaça aos empregos, mas como uma alavanca de produtividade e ampliação das capacidades humanas. A declaração foi feita em um texto publicado pelo próprio executivo em seu novo blog, o sn scratchpad, divulgado via LinkedIn. O movimento é visto como uma tentativa de liderança intelectual (“thought leadership”), em meio às crescentes dúvidas do mercado sobre quando e se as receitas com Copilot e serviços de IA em nuvem conseguirão compensar os altos investimentos em data centers e infraestrutura. “Não estamos mais descobrindo, estamos difundindo” Logo no início do texto , Nadella afirma que a IA já superou a fase inicial de descoberta e entrou em um estágio de difusão ampla. Embora o conceito de “ampla” seja relativo, pesquisas como a do Pew Research indicam que 62% dos adultos nos EUA interagem com IA ao menos algumas vezes por semana. Ainda assim, o número que realmente importa para a Microsoft quantos clientes estão pagando por soluções como o Copilot segue em construção. O CEO também recorre a uma nova metáfora para substituir o clássico “ainda é cedo”: segundo ele, a IA está apenas “nos primeiros quilômetros de uma maratona”, e muito do que virá ainda é imprevisível. Três pontos que precisam “dar certo” para a IA gerar valor Nadella argumenta que, para que a IA entregue valor real nos próximos anos, especialmente a partir de 2026, três frentes precisam ser tratadas com prioridade. A primeira é desenvolver uma “teoria da mente” para a IA, tratando-a como uma ferramenta que amplifica o potencial humano, e não como um substituto direto de pessoas. Ele resgata a famosa frase de Steve Jobs, que definia computadores como “bicicletas para a mente”, reforçando que o impacto da IA depende mais de como ela é aplicada do que do poder bruto dos modelos. Essa defesa ocorre em um contexto sensível: a própria Microsoft tem sido pressionada a explicar estudos internos sobre impacto da IA no mercado de trabalho, tentando afastar a narrativa de que suas soluções seriam projetadas para eliminar postos de trabalho. De modelos isolados para sistemas de agentes O segundo ponto levantado pelo executivo é a necessidade de evoluir de modelos individuais de IA para sistemas completos, formados por múltiplos modelos e agentes trabalhando de forma orquestrada. Segundo Nadella, essa nova fase envolve estruturas mais complexas, com gestão de memória, permissões, identidade e uso seguro de ferramentas, algo que vai além de simples chatbots ou assistentes isolados. Na prática, trata-se da visão de um ecossistema de agentes de IA cooperando, reduzindo falhas e aumentando a confiabilidade embora críticos ainda apontem que muitos desses agentes continuam apresentando taxas elevadas de erro. Onde e como usar IA passa a ser uma decisão política e social Por fim, Nadella afirma que o maior desafio não é técnico, mas socioeconômico. Para ele, será necessário tomar decisões difíceis sobre onde aplicar recursos escassos, como capacidade computacional, energia e talentos humanos, para garantir que a IA gere impacto concreto no mundo real. Segundo o CEO, esse processo exigirá consenso social embora críticos observem que, na prática, isso muitas vezes significa impor a adoção da tecnologia, minimizar resistências legítimas e ampliar investimentos em lobby político para acelerar regulações favoráveis. O posicionamento de Nadella reforça a tentativa da Microsoft de reposicionar a narrativa da IA, afastando-se do medo do desemprego em massa e do hype vazio, e aproximando-se de uma visão onde a tecnologia é apresentada como inevitável, estratégica e estrutural para o futuro dos negócios. TR
- Programador cria nova linguagem com ajuda de inteligência artificial
O veterano em desenvolvimento de software Steve Klabnik , conhecido por suas contribuições ao Rust e ao Ruby on Rails , está desenvolvendo uma nova linguagem de programação chamada Rue e, desta vez, com um copiloto inusitado: a inteligência artificial Claude, da Anthropic. O projeto tem um objetivo ambicioso: oferecer segurança de memória sem o uso de garbage collection, mas com uma experiência de desenvolvimento mais simples e acessível do que linguagens como Rust ou Zig. Segundo Klabnik, a proposta explora um espaço ainda pouco explorado no design de linguagens modernas, equilibrando segurança, ergonomia e desempenho, sem buscar o máximo de performance a qualquer custo. O que é a linguagem Rue? Em uma publicação recente, Klabnik definiu a Rue como uma linguagem de programação de sistemas que busca garantir segurança de memória sem depender de um coletor de lixo tradicional, mas também sem impor a mesma complexidade frequentemente associada ao Rust. A ideia é aceitar pequenas concessões de desempenho em troca de maior simplicidade no uso e no design da linguagem. O nome “Rue”, que em inglês pode significar tanto “arrependimento” quanto uma flor, foi escolhido justamente por carregar uma dualidade de significados, algo que Klabnik considera simbólico. Além disso, o nome mantém uma curiosa continuidade em sua trajetória: Ruby, Rust… Rue. Segurança de memória sem garbage collection A coleta automática de memória é amplamente utilizada para reduzir erros como use-after-free e double free, problemas historicamente associados a falhas de segurança. Não por acaso, autoridades de cibersegurança dos Estados Unidos vêm destacando a importância de linguagens memory-safe como forma de reduzir vulnerabilidades críticas. O Rust se tornou referência nesse campo, mas sua curva de aprendizado íngreme é frequentemente citada como um obstáculo. Klabnik afirma que, após anos conversando com desenvolvedores, percebeu que a complexidade da linguagem é uma preocupação recorrente e que isso abriu espaço para experimentar novas abordagens de design. Claude como copiloto no desenvolvimento Um dos aspectos mais interessantes do projeto é o uso intensivo do Claude como copiloto de desenvolvimento. Nos próprios posts do projeto, Rue é creditada como sendo desenvolvida por “Steve Klabnik e Claude”. Em atualizações posteriores, o próprio modelo de IA chegou a assinar resumos do progresso semanal do código. Segundo Klabnik, sua produtividade aumentou significativamente após aprender a usar modelos de linguagem de forma mais eficaz. Ele afirma que, em poucas semanas, avançou mais no projeto do que em meses de tentativas anteriores, chegando a cerca de 70 mil linhas de código em Rust logo no início do desenvolvimento. Apesar disso, ele faz questão de ressaltar que IA não substitui conhecimento técnico. Para projetos pequenos, modelos como Claude podem ajudar até iniciantes, mas, em sistemas maiores, engenharia de software, testes e revisão de código continuam sendo habilidades essenciais. Para Klabnik, trabalhar com LLMs é uma competência própria assim como usar editores avançados ou dominar práticas de desenvolvimento profissional. Uma colaboração incomum Em uma resposta publicada no blog do projeto, o próprio Claude destacou que teve participação direta em grande parte dos commits iniciais, enquanto Klabnik atuou como arquiteto, revisor e responsável pelas decisões de design mais complexas. Segundo o modelo, trata-se de uma colaboração incomum, cujo impacto ainda é difícil de avaliar. Quanto ao futuro da Rue, Klabnik mantém expectativas modestas. Se ninguém nunca usar a linguagem, tudo bem. Se, daqui a dez anos, ela se tornar relevante, também não vê problema. O objetivo, segundo ele, é explorar ideias, aprender e se divertir no processo com Claude acompanhando como copiloto. TR
- Finalmente um navegador de terminal para fugir da guerra dos browsers e da invasão da IA
Usuários mais antigos da web provavelmente se lembram com carinho do Lynx, o navegador em modo texto que rodava diretamente no terminal. Agora, essa ideia ganha uma releitura moderna com o brow6el, um navegador gráfico que funciona inteiramente dentro do terminal, sem abrir mão de recursos atuais. O projeto foi publicado no Codeberg durante o recesso de fim de ano por um desenvolvedor identificado como janantos. O brow6el roda em emuladores de terminal que suportam o formato gráfico Sixel, uma tecnologia criada originalmente para terminais e impressoras. O Sixel permite representar imagens bitmap por meio de sequências de escape, onde cada caractere impresso corresponde a pequenos blocos de pixels. Combinados, esses blocos permitem exibir imagens coloridas e até animações, algo impensável nos terminais clássicos. No projeto, a renderização gráfica é feita com o auxílio da biblioteca libsixel . Navegador completo, só que dentro do terminal Apesar da proposta minimalista, o brow6el está longe de ser limitado. Ele utiliza o Chromium Embedded Framework para renderizar páginas completas e oferece suporte a HTML5, CSS e JavaScript, além de recursos como uso de mouse, favoritos, gerenciador de downloads, modo privado, bloqueador de anúncios pré-instalado, console JavaScript, inspeção de páginas e tratamento de pop-ups. As páginas são constantemente re-renderizadas para manter o conteúdo atualizado, e o navegador permite múltiplas instâncias simultâneas, sem a limitação de uma única janela de terminal. Para quem prefere teclado a mouse, o brow6el também traz navegação no estilo Vim, com comandos de uma única tecla, além de emulação de cursor usando as teclas H, J, K e L. Um refúgio em meio à tempestade de navegadores com IA O surgimento do brow6el acontece em um momento de crescente insatisfação com os navegadores modernos. Nos últimos meses, empresas como Google, Microsoft e até o Mozilla têm incorporado cada vez mais recursos baseados em inteligência artificial aos seus browsers. Paralelamente, companhias como OpenAI e Perplexity lançaram navegadores AI-first, que rapidamente passaram a ser alvo de críticas por riscos à privacidade e à segurança. O tema se tornou tão sensível que a Gartner chegou a recomendar que organizações bloqueiem navegadores com barras laterais de IA, temendo que dados corporativos confidenciais sejam coletados e utilizados no treinamento de modelos de linguagem. Não é perfeito, mas faz pensar O próprio desenvolvedor deixa claro que o brow6el ainda é um projeto em estágio de prova de conceito (PoC). Entre as limitações conhecidas estão problemas com teclados localizados e a falta de suporte a caracteres acentuados na entrada de texto. Ainda assim, para usuários mais técnicos, dispostos a conviver com imperfeições ou até contribuir com o código, o projeto pode representar uma alternativa interessante. Em um cenário onde cresce o receio de que navegadores tradicionais compartilhem dados sensíveis com modelos de IA, a ideia de voltar ao terminal agora com gráficos e recursos modernos pode deixar de ser nostalgia e se tornar uma escolha estratégica. TR
- Mais de 10 mil firewalls Fortinet estavam expostos a falha crítica de bypass de 2FA, alerta relatório recente
Um relatório divulgado recentemente indicou que milhares de firewalls Fortinet estavam expostos à internet e vulneráveis à exploração da falha crítica CVE-2020-12812 , que permite o bypass de autenticação em dois fatores (2FA) em dispositivos FortiGate SSL VPN. A vulnerabilidade é conhecida desde 2020 e voltou a ganhar atenção após a identificação de exploração ativa em ambientes com configurações específicas. A Fortinet reforçou que o problema foi corrigido oficialmente em julho de 2020, com a disponibilização das versões FortiOS 6.4.1, 6.2.4 e 6.0.10. Na época, administradores que não puderam aplicar os patches imediatamente receberam orientações para adotar medidas mitigatórias, como a desativação da sensibilidade a maiúsculas e minúsculas nos nomes de usuário. Exploração observada e contexto atual Segundo a Fortinet , foram observados casos recentes de exploração “in the wild”, restritos a configurações específicas, especialmente em ambientes que utilizam autenticação via LDAP. O alerta não se refere a uma nova vulnerabilidade, mas sim ao uso recorrente de uma falha antiga em dispositivos que permaneceram desatualizados ou mal configurados. Dados divulgados pela Shadowserver Foundation mostravam, no momento da coleta das informações, um número significativo de dispositivos expostos e sem correção aplicada. Especialistas destacam, no entanto, que esse tipo de levantamento representa um retrato pontual, e que a exposição pode ter sido reduzida após a divulgação pública do alerta e a adoção de medidas corretivas. Histórico conhecido e medidas recomendadas A vulnerabilidade CVE-2020-12812 já havia sido associada anteriormente a ataques de ransomware e campanhas patrocinadas por Estados, levando a CISA a incluí-la em sua lista de vulnerabilidades conhecidamente exploradas . Desde então, a recomendação tem sido clara: atualização do FortiOS, revisão de configurações de autenticação e redução da exposição da SSL VPN à internet. A Fortinet reiterou que ambientes devidamente atualizados não são afetados pela falha e que organizações que seguem as boas práticas recomendadas não estão vulneráveis ao bypass de 2FA descrito no relatório. Situação em perspectiva Embora o relatório aponte um cenário de risco no momento da análise, não há indicação de que os dispositivos citados permaneçam vulneráveis atualmente. Casos como este reforçam um desafio recorrente da cibersegurança: falhas antigas continuam sendo exploradas enquanto houver sistemas sem atualização, independentemente do tempo decorrido desde sua correção. BC
- Ataque cibernético força fechamento de escola no Reino Unido após feriado de Natal
Um ataque cibernético obrigou a Higham Lane School, no município de Nuneaton, a permanecer fechada após o recesso de Natal. Cerca de 1.500 estudantes foram informados de que as aulas presenciais não seriam retomadas imediatamente devido à indisponibilidade total dos sistemas de TI da instituição. Em comunicado enviado a pais e responsáveis, a escola afirmou que o incidente derrubou completamente o ambiente tecnológico, deixando professores e funcionários sem acesso a telefones, e-mails, servidores e ao sistema de gestão escolar. O diretor Michael Gannon explicou que a reabertura estava prevista, inicialmente, para a quarta-feira, mas ressaltou que o prazo depende do entendimento completo do impacto e do trabalho de recuperação necessário. A escola também solicitou que alunos não tentem acessar nenhum sistema digital até novo aviso, como medida de precaução. A administração da Central England Academy Trust, responsável pela Higham Lane School e por outras cinco instituições na região, confirmou que está gerenciando um incidente de cibersegurança que afetou partes críticas da infraestrutura de TI. Segundo a entidade, protocolos de resposta a incidentes já foram acionados, especialistas independentes em cibersegurança foram contratados para conduzir a investigação e autoridades regulatórias foram notificadas, incluindo o Information Commissioner's Office (ICO), responsável pela proteção de dados no Reino Unido. Até o momento, a natureza exata do ataque não foi confirmada e não há informações oficiais sobre exfiltração de dados. O episódio ocorre em um contexto preocupante: em 2024, mais de 80 ataques de ransomware contra o setor de educação e cuidados infantis foram reportados ao ICO. Naquele ano, diversas escolas britânicas precisaram suspender atividades após extorsões cibernéticas com ameaça de vazamento de dados. A Central England Academy Trust informou que novas atualizações serão compartilhadas com as famílias e destacou que não é apropriado especular enquanto a investigação estiver em andamento. “A escola leva a privacidade e a segurança de sua comunidade muito a sério e está tomando todas as medidas razoáveis para gerenciar o incidente e restaurar os sistemas de forma segura e o mais rápido possível”, concluiu o porta-voz. RFN
- Hackers usam falsa “tela azul da morte” para atacar hotéis na Europa
Hackers estão conduzindo uma nova campanha de phishing e distribuição de malware contra o setor de hotelaria e hospitalidade na Europa, utilizando uma técnica engenhosa: uma falsa “Blue Screen of Death” (tela azul da morte) para induzir vítimas a executar códigos maliciosos em seus próprios computadores. Pesquisadores da Securonix identificaram a operação, batizada de PHALT#BLYX, que se apoia em engenharia social avançada e exploração do comportamento humano diante de erros aparentes no sistema. O ataque começa com e-mails falsos de cancelamento de reserva, que imitam plataformas populares de hospedagem e direcionam os alvos para páginas fraudulentas. Ao clicar em links como “See Details”, a vítima é levada a um site falso de reservas, onde surge uma mensagem de erro informando que o carregamento está demorando. Em seguida, ao tentar “atualizar” a página, o usuário se depara com uma tela azul falsa, cuidadosamente animada para parecer legítima. Para “corrigir” o problema, a página instrui o usuário a copiar e colar um script no comando Executar do Windows ação que, na prática, instala o malware DCRat. O DCRat é um trojan de acesso remoto amplamente comercializado em fóruns clandestinos russos. Uma vez instalado, ele permite que os hackers capturem teclas digitadas, senhas, dados da área de transferência, além de desativar mecanismos de defesa como o Windows Defender. Para reduzir suspeitas, o ataque ainda abre uma página legítima de reservas como isca, enquanto o malware atua silenciosamente em segundo plano. Segundo a Securonix, diversos indícios técnicos apontam para a origem russa do grupo, incluindo strings de depuração em russo, uso de arquivos de projeto do MSBuild e infraestrutura de comando e controle geolocalizada na Rússia. A campanha se intensificou durante o outono europeu, período de alta demanda no setor de turismo, explorando o senso de urgência com cobranças falsas acima de €1.000. Os pesquisadores alertam que a operação representa uma evolução sofisticada na entrega de malware comum, combinando manipulação psicológica e abuso de binários confiáveis do próprio sistema operacional. O objetivo é evadir detecção, manter persistência de longo prazo e ampliar o impacto antes que soluções tradicionais de segurança consigam reagir. TR
- Google testa nova IA de imagens “Nano Banana 2 Flash”, que promete ser a mais rápida da empresa
O Google está testando um novo modelo de inteligência artificial para geração de imagens chamado Nano Banana 2 Flash, que deve se tornar o modelo mais rápido da companhia nessa categoria. A novidade faz parte da linha Flash do Gemini, conhecida por priorizar desempenho e velocidade em aplicações de IA generativa. De acordo com as primeiras informações , o Nano Banana 2 Flash será mais rápido e mais acessível do que o modelo atual Nano Banana Pro, embora não alcance o mesmo nível de capacidade e precisão. A expectativa é que o novo modelo atenda casos de uso em que tempo de resposta e custo sejam mais importantes do que máxima fidelidade visual ou raciocínio avançado. Vazamento indica novo modelo em fase de testes A existência do Nano Banana 2 Flash foi identificada em publicações na rede social X por MarsForTech, conhecido por antecipar lançamentos e testes internos relacionados aos modelos Gemini. Até o momento, o Google não confirmou oficialmente o novo modelo, mas os indícios apontam para testes avançados dentro do ecossistema da empresa. Atualmente, o Nano Banana Pro também chamado de Gemini 3 Pro Image é o modelo mais avançado de geração e edição de imagens do Google. Ele foi projetado para trabalhos criativos mais complexos, nos quais precisão, entendimento contextual e qualidade visual são fundamentais. Diferença entre Nano Banana Pro e Flash O Nano Banana Pro utiliza raciocínio mais sofisticado e um conhecimento mais amplo do mundo real, permitindo criar imagens mais refinadas a partir de textos ou conteúdos de referência. Isso inclui protótipos, diagramas, storyboards, infográficos e até imagens no estilo de relatórios meteorológicos ou receitas, especialmente quando integrado a dados em tempo real via busca. Já o Nano Banana 2 Flash deve seguir uma proposta semelhante, porém com menos poder cognitivo, focando em execuções rápidas e eficientes. Essa abordagem indica uma estratégia clara do Google: oferecer múltiplas camadas de IA, equilibrando custo, velocidade e qualidade conforme a necessidade do usuário ou da aplicação. Estratégia do Google para IA generativa O possível lançamento do Nano Banana 2 Flash reforça o movimento do Google em segmentar seus modelos de IA para diferentes perfis de uso desde aplicações leves e em larga escala até cenários criativos mais exigentes. Essa diferenciação também amplia a competitividade da empresa no mercado de IA generativa visual, cada vez mais disputado por big techs e startups especializadas. BC
- Ferramenta de hacker ou puro desconhecimento técnico? A polêmica por trás do banimento do Flipper Zero em Nova York
A cerimônia de posse do novo prefeito de New York City, Zohran Mamdani, marcada para 2026, chamou a atenção da comunidade de tecnologia e segurança ao proibir explicitamente os dispositivos Flipper Zero e Raspberry Pi no evento. A restrição consta na lista oficial de itens vetados publicada no FAQ do evento, conforme apontado inicialmente pela Adafruit . Além desses dispositivos, a lista inclui itens tradicionalmente associados a riscos físicos e logísticos, como mochilas grandes, armas, fogos de artifício, drones, carrinhos de bebê, bebidas alcoólicas, substâncias ilegais e animais que não sejam de serviço. O que causou estranhamento foi o fato de Flipper Zero e Raspberry Pi terem sido citados nominalmente, diferentemente de outros itens tecnológicos, que normalmente são agrupados em categorias genéricas. Por que Flipper Zero e Raspberry Pi entraram na lista? O Flipper Zero é amplamente utilizado por Pesquisadores, desenvolvedores e entusiastas para testes e aprendizado de protocolos de comunicação sem fio, como RFID, NFC, infravermelho, Bluetooth e sinais de rádio. Já o Raspberry Pi é um computador de placa única, de baixo custo, capaz de rodar distribuições Linux completas e executar uma ampla gama de aplicações muitas delas equivalentes às de um notebook tradicional. Apesar de seu uso legítimo em educação, pesquisa e desenvolvimento, dispositivos como o Flipper Zero já foram alvo de questionamentos por governos ao redor do mundo, sob a justificativa de possível uso em furtos de veículos, invasões de redes e outras atividades ilícitas. Em alguns casos, isso levou a propostas de restrição, apreensões pontuais e até banimentos temporários em plataformas de e-commerce, como a Amazon, que no passado chegou a retirar o produto de sua loja por preocupações com card skimming. Críticas e incoerências levantadas por especialistas A decisão, no entanto, gerou confusão e críticas porque laptops e smartphones não aparecem na lista de itens proibidos, apesar de possuírem capacidade técnica igual ou superior. Notebooks modernos podem rodar distribuições de pentest como Kali Linux, enquanto smartphones suportam ferramentas avançadas como Kali NetHunter. O profissional de segurança Stefan Klatt ironizou a medida nas redes sociais, afirmando que a lista “nomeia explicitamente dois dispositivos do mundo de TI ao lado de armas e drones”, e questionou: “Como dizer que você não faz ideia do que está falando sem dizer isso?”. Até o momento, os organizadores do evento não apresentaram justificativas técnicas ou operacionais para a escolha específica desses dispositivos. A ausência de explicações reforça o debate sobre desconhecimento técnico em decisões de segurança, além do risco de estigmatizar ferramentas amplamente utilizadas para fins legítimos de educação e pesquisa. BC
- Empresa francesa de software é multada em €1,7 milhão após falhas de segurança causarem vazamento de dados
A autoridade francesa de proteção de dados aplicou uma multa de €1,7 milhão (cerca de US$ 2 milhões) à empresa de software Nexpublica France por falhas graves de cibersegurança que resultaram em um vazamento de dados sensíveis. A penalidade foi anunciada pela CNIL , órgão responsável por fiscalizar o cumprimento das leis de proteção de dados na França. O incidente remonta a novembro de 2022, quando usuários de um portal operado pela Nexpublica relataram que conseguiam acessar documentos pertencentes a terceiros, sem qualquer tipo de autorização. Após receber as denúncias, a CNIL iniciou uma investigação formal e concluiu que o programa de segurança da informação da empresa era inadequado, expondo dados pessoais de forma indevida. Falhas conhecidas e ausência de medidas preventivas Segundo a CNIL, os problemas de segurança já eram conhecidos internamente pela Nexpublica antes do vazamento, mas nenhuma ação corretiva foi adotada até que o incidente se tornasse público. Esse fator agravou a penalidade, já que a empresa teve oportunidade de mitigar os riscos, mas falhou em fazê-lo. Em comunicado oficial, o regulador afirmou que o valor da multa levou em consideração diversos fatores, como a capacidade financeira da empresa, a falta de conhecimento sobre princípios básicos de segurança, o número de pessoas impactadas e a sensibilidade dos dados tratados. As práticas adotadas pela Nexpublica foram consideradas incompatíveis com as exigências do Regulamento Geral de Proteção de Dados (GDPR), legislação europeia que estabelece padrões rigorosos para a proteção de informações pessoais. Alerta para empresas que tratam dados sensíveis O caso reforça a postura cada vez mais rigorosa das autoridades europeias em relação à negligência em cibersegurança, especialmente quando envolve dados pessoais. Para a CNIL, o incidente demonstra que não basta reagir após um vazamento, sendo essencial manter controles preventivos, gestão de riscos e boas práticas de segurança continuamente atualizadas. A multa aplicada à Nexpublica serve como um alerta direto a empresas de tecnologia e prestadores de serviços digitais, destacando que falhas básicas de segurança podem resultar não apenas em incidentes operacionais, mas também em impactos financeiros e reputacionais significativos. RFN
- IA é uma assistente indispensável, mas não substitui o ser humano, alerta CEO da Safe Software
PÚBLICIDADE | Conteúdo patrocinado por Black Box AI À medida que a Inteligência Artificial assume tarefas cada vez mais próximas às de um programador júnior, cresce também a discussão sobre até onde a automação pode ir sem comprometer o fator humano. Esse alerta foi feito por Don Murray , CEO da Safe Software, ao afirmar que a IA já é indispensável como assistente, mas nunca deve ser tratada como autoridade final. Esse ponto dialoga diretamente com a proposta da Black Box AI : usar a IA para potencializar o trabalho humano, acelerar análises, reduzir erros repetitivos e ampliar a capacidade técnica sem substituir o julgamento crítico de quem entende do negócio, do código ou do contexto. IA precisa de dados. Profissionais precisam de contexto. Murray destaca que a IA tem uma “sede infinita por dados”, mas que decisões críticas exigem algo que modelos sozinhos não possuem: experiência prática e responsabilidade humana. A Black Box AI nasce exatamente nesse equilíbrio. Na prática, a plataforma atua como uma copilota técnica, ajudando desenvolvedores, analistas e engenheiros a: Entender códigos complexos e legados; Detectar falhas de lógica, segurança e performance; Gerar explicações claras sobre o porquê de uma sugestão; Acelerar troubleshooting, refatoração e aprendizado técnico. Tudo isso mantendo o profissional no controle da decisão, reforçando o conceito de human in the loop citado por Murray. Precisão não é opcional em ambientes críticos O CEO da Safe Software chama atenção para um ponto sensível: 80% ou 90% de acurácia pode ser inaceitável em setores como engenharia, saúde ou infraestrutura crítica. É por isso que ferramentas de IA não podem ser usadas como “caixas-pretas” decisórias. A Black Box AI se diferencia justamente por: Tornar transparentes as sugestões geradas; Explicar raciocínios, dependências e impactos; Apoiar validações técnicas antes da execução; Reduzir o risco de “aceitar cegamente” uma resposta da IA. Ou seja, a IA acelera mas quem assina a decisão continua sendo o humano. O risco invisível: pular a formação de novos especialistas Um dos alertas mais fortes de Murray é estratégico: empresas que deixam de contratar profissionais juniores por confiar apenas na IA podem criar um vácuo de conhecimento no futuro. Experiência não se baixa como software ela se constrói. Nesse cenário, a Black Box AI atua como uma ferramenta de nivelamento técnico, permitindo que: Profissionais mais novos ganhem produtividade sem pular etapas de aprendizado; Profissionais experientes validem, corrijam e orientem decisões; O conhecimento seja transferido, documentado e compreendido com mais rapidez. A IA não substitui a carreira ela acelera a evolução dela. IA veio para ficar, mas não para decidir sozinha Assim como a internet deixou de ser vista como “bolha” para se tornar infraestrutura essencial, a IA seguirá evoluindo. A diferença estará em como ela é usada. Plataformas como a Black Box AI mostram que o futuro não é humano versus máquina é humano + IA, cada um no papel certo. Teste na prática Usando o cupom CYBER, você garante 1 mês de acesso gratuito à Black Box AI , com todos os recursos liberados, e pode experimentar como a IA pode acelerar seu trabalho técnico sem abrir mão do controle, da segurança e do pensamento crítico.
- Califórnia lança ferramenta para exigir exclusão de dados pessoais de empresas que comercializam dados
Moradores da Califórnia agora contam com uma nova ferramenta oficial para reduzir a capacidade de empresas que comercializam dados armazenarem e venderem informações pessoais. A iniciativa representa mais um avanço no fortalecimento das regras de privacidade no estado, hoje referência global em proteção de dados. Desde 2020, os residentes já possuíam o direito legal de solicitar que empresas interrompessem a coleta e a venda de seus dados. No entanto, o processo era considerado complexo e desgastante, pois exigia que cada cidadão realizasse pedidos individuais para centenas de empresas diferentes. Para enfrentar esse desafio, a Califórnia aprovou em 2023 o Delete Act , uma legislação criada para centralizar e simplificar esse procedimento. A lei agora passa a valer na prática com o lançamento da Delete Requests and Opt-Out Platform (DROP). A plataforma permite que moradores do estado, após validarem sua residência, façam um único pedido de exclusão, que será automaticamente encaminhado para mais de 500 empresas que comercializam dados registradas atualmente além de novas empresas que venham a se registrar futuramente. Apesar do avanço, a exclusão não ocorrerá de forma imediata. As empresas deverão iniciar o processamento das solicitações apenas em agosto de 2026, contando com um prazo adicional de até 90 dias para localizar os registros, excluir as informações e reportar o cumprimento da solicitação. Caso uma empresa não consiga identificar os dados do solicitante, o cidadão poderá fornecer informações complementares para auxiliar na localização. A legislação também estabelece limites claros. Organizações poderão manter dados primários, ou seja, informações coletadas diretamente de seus próprios clientes. A obrigação de exclusão se aplica exclusivamente a empresas cujo modelo de negócio envolve a compra, agregação ou venda de dados pessoais, um mercado que inclui informações sensíveis como número de seguridade social (Social Security Number), histórico de navegação, endereços de e-mail, números de telefone e outros identificadores. Alguns tipos de dados permanecem fora do escopo da exclusão, como registros públicos de veículos e cadastros eleitorais. Já informações médicas sensíveis continuam protegidas por legislações específicas, como a HIPAA, que regula a privacidade de dados de saúde nos Estados Unidos. De acordo com a California Privacy Protection Agency, além de ampliar o controle dos cidadãos sobre seus dados pessoais, a nova plataforma pode reduzir significativamente ligações, mensagens e e-mails indesejados, além de diminuir os riscos de roubo de identidade, fraudes, golpes com uso de inteligência artificial e vazamentos de dados. TC
- Trust Wallet liga roubo de US$ 8,5 milhões em criptomoedas a ataque Shai-Hulud no npm
A Trust Wallet confirmou que o roubo de aproximadamente US$ 8,5 milhões em criptomoedas, que afetou mais de 2.500 carteiras, está provavelmente ligado ao ataque à cadeia de suprimentos Shai-Hulud, registrado em novembro e considerado de impacto “industrial”. O incidente envolveu o comprometimento da extensão de navegador da Trust Wallet, amplamente utilizada por milhões de usuários. Com mais de 200 milhões de usuários em todo o mundo, a Trust Wallet permite armazenar, enviar e receber ativos como Bitcoin, Ethereum, Solana e milhares de outros tokens por meio de extensões de navegador e aplicativos móveis. O ataque, ocorrido em 24 de dezembro, teve início após hackers inserirem um arquivo JavaScript malicioso na versão 2.68.0 da extensão da Trust Wallet para Chrome, permitindo o roubo de dados sensíveis das carteiras e a execução de transações não autorizadas. Vazamento de segredos de desenvolvedor abriu caminho para o ataque Segundo a própria empresa , o vetor crítico do ataque foi a exposição de segredos de desenvolvedor no GitHub, o que concedeu aos hackers acesso ao código-fonte da extensão e à chave da API da Chrome Web Store (CWS). Com essa chave, os invasores obtiveram acesso total à API da loja, conseguindo publicar novas versões da extensão sem passar pelo processo interno padrão de aprovação e revisão manual da Trust Wallet. Na etapa seguinte, os hackers registraram o domínio metrics-trustwallet.com e o subdomínio api.metrics-trustwallet.com, usados para hospedar código malicioso que foi incorporado diretamente à extensão oficial adulterada. Como o build foi gerado a partir do código-fonte legítimo obtido com os segredos vazados, o malware conseguiu coletar dados sensíveis das carteiras sem recorrer a técnicas tradicionais de injeção de código, tornando a detecção ainda mais difícil. Utilizando a chave vazada da CWS, a versão 2.68 foi publicada e liberada automaticamente na loja do Chrome após passar pelas verificações da plataforma, ignorando os controles internos da empresa. Resposta ao incidente e alertas aos usuários Após identificar o ataque, a Trust Wallet revogou todas as APIs de release, bloqueando qualquer tentativa de publicação de novas versões comprometidas. A empresa também reportou os domínios maliciosos ao registrador NiceNIC, que os suspendeu rapidamente, impedindo novos roubos de dados. Além disso, a Trust Wallet iniciou o processo de reembolso das vítimas e alertou sobre uma nova onda de golpes secundários. Hackers estão se passando por contas oficiais de suporte, divulgando falsos formulários de compensação e promovendo fraudes por meio de anúncios no Telegram. Shai-Hulud: o ataque à supply chain por trás do incidente O Shai-Hulud (também conhecido como Shai-Hulud 2.0) foi um ataque massivo à cadeia de suprimentos que explorou o ecossistema do npm, repositório que hospeda mais de 2 milhões de pacotes. Na primeira onda, em setembro, hackers comprometeram mais de 180 pacotes, utilizando um payload auto-propagável para roubar segredos de desenvolvedores e chaves de API com a ferramenta TruffleHog. Na segunda fase, o ataque escalou rapidamente, impactando mais de 800 pacotes e adicionando 27 mil pacotes maliciosos ao npm. Ao todo, cerca de 400 mil segredos foram expostos e publicados em mais de 30 mil repositórios do GitHub, com mais de 60% dos tokens npm ainda válidos até dezembro. Pesquisadores da Wiz alertaram recentemente que os hackers estão aperfeiçoando operações de roubo de credenciais usando o ecossistema npm e o GitHub. Segundo eles, o volume de segredos já coletados indica que novos ataques são praticamente inevitáveis, tanto com técnicas semelhantes quanto explorando os dados já roubados. BC















