Um ano após o lançamento de sua plataforma de IA, a Apple pouco fará na WWDC para mostrar que está alcançando líderes como OpenAI e Google. Veja também: o macOS mais recente ganha seu novo tema Califórnia; um resumo dos motivos pelos quais a empresa está migrando para o sistema de nomenclatura iOS 26 e macOS 26 ; e detalhes sobre o aplicativo dedicado a jogos da Apple . Semana passada no Power On : o acordo de Jony Ive com a OpenAI aumenta a pressão sobre a Apple para encontrar seu próximo produto inovador. Os iniciantes Evento WWDC da Apple em junho. Fonte: Apple Há um ano, a Apple Inc. revelou sua tão aguardada entrada no universo da IA generativa. Com a Apple Intelligence, a empresa assumiu o papel de uma retardatária atenciosa que investiu tempo para acertar na IA. Wall Street aderiu à ideia, e os consumidores ficaram curiosos. A mensagem era clara: a Apple podia estar atrasada, mas não por muito tempo. Em agosto, quando os desenvolvedores tiveram acesso à primeira versão beta do Apple Intelligence, essa narrativa começou a ruir. Ficou óbvio que o produto era mais uma estratégia de marca do que um avanço. O sistema que a Apple entregou não tinha o poder e a inovação dos sistemas da OpenAI, do Google, da Alphabet Inc., e de outros. Era reativo, esquecível e atrasado (o software chegou a atrasar o lançamento do iPhone 16 por um mês e meio). Nos meses seguintes, ficou evidente que recursos como Ferramentas de Escrita, Genmoji e Notificações Prioritárias, embora úteis, não correspondiam às inovações dos concorrentes da Apple. E a nova assistente de voz Siri, que deveria estar no centro da Inteligência Apple, foi adiada por tempo indeterminado após enfrentar uma série de problemas de engenharia e testes. Com a aproximação do aniversário de um ano da Apple Intelligence, a empresa se encontra em uma situação difícil. Precisa gerar algum entusiasmo sobre IA na Worldwide Developers Conference, em 9 de junho, mas tem pouco a acrescentar à conversa. Nas últimas semanas, a OpenAI firmou uma parceria de sucesso com o ex-chefe de design da Apple, enquanto o Google fez grandes avanços em seu evento I/O. As recentes iniciativas do Google intensificaram a concorrência e consolidaram a empresa como uma potência em IA. A empresa impressionou desenvolvedores, consumidores e investidores ao criar novas maneiras de criar vídeos e pesquisar na internet. E está permitindo que seus grandes modelos de linguagem acessem dados pessoais — algo que a Apple vem tentando fazer com o recurso Contexto Pessoal para a Siri, que estava atrasado. A Apple precisa de um retorno. Mas isso provavelmente não acontecerá na WWDC deste ano. Pessoas dentro da empresa acreditam que a conferência pode ser uma decepção do ponto de vista da IA. Outros familiarizados com os anúncios planejados pela empresa temem que eles possam tornar as deficiências da Apple ainda mais evidentes. Há também indícios de que o evento será em menor escala do que as duas últimas WWDCs (o Vision Pro foi anunciado em 2023 e o Apple Intelligence foi apresentado em 2024). A empresa quer compensar isso no próximo ano, na WWDC 2026, quando espera poder tentar convencer os consumidores de que é uma inovadora em IA. Mas isso é arriscado. Tirar um ano sabático é difícil quando seus concorrentes estão se movendo na velocidade da luz. O anúncio mais significativo sobre IA na WWDC será a abertura dos Modelos Fundamentais da Apple para desenvolvedores terceirizados. Essa mudança permitirá que os criadores de aplicativos explorem a tecnologia da empresa para dispositivos, que ela utiliza atualmente para lidar com tarefas simples, como resumo de texto. Estamos falando de grandes modelos de linguagem com cerca de 3 bilhões de parâmetros — uma medida de sua complexidade e capacidade de aprendizado —, muito menos do que os baseados em nuvem usados pela OpenAI e até pela própria Apple para seus recursos internos de IA em nuvem. Os desenvolvedores poderão usar os modelos básicos para criar recursos personalizados para aplicativos, marcando um passo importante (mas gradual) na jornada de IA da Apple. Mantendo o assunto da IA, a empresa também apresentará um novo modo de gerenciamento de energia , proporá uma reinicialização do aplicativo Tradutor (agora integrado aos AirPods e Siri) e, discretamente, renomeará vários recursos existentes em aplicativos como Safari e Fotos como “alimentados por IA”. Além disso, a empresa está renomeando seus sistemas operacionais com um sistema baseado em anos (mais sobre isso abaixo) — mais um sinal de que a empresa está investindo em branding para convencer os usuários de que é uma empresa de IA e desviar a conversa da tecnologia em si. Esse também foi o caso no ano passado, quando a empresa apresentou o Apple Intelligence como “IA para o resto de nós”, uma referência ao lançamento muito mais histórico do Mac em 1984. A Apple espera ter uma história melhor para contar nos próximos anos, quando mais recursos estão previstos para serem lançados. Os projetos em andamento incluem: LLM Siri, uma reformulação ousada da arquitetura da assistente que deve, eventualmente, torná-la mais parecida com o modo de voz do ChatGPT. A esperança é finalmente dar à Siri uma interface de conversação. Uma versão reformulada do aplicativo Atalhos, que hoje permite aos usuários criar ações como iniciar determinados recursos em aplicativos ou reproduzir uma playlist específica. A nova versão permitirá que os consumidores criem essas ações usando modelos de inteligência da Apple. (Isso estava planejado há muito tempo para 2025, mas atrasos podem adiá-lo para 2026.) O serviço médico de IA da Apple , codinome Mulberry, e um app de saúde reformulado. Este projeto ainda está em desenvolvimento, mas provavelmente não será exibido este ano. Atualmente, está previsto para ser lançado em 2026 como parte de uma atualização de primavera do iOS 26. Um chatbot concorrente do ChatGPT que pode extrair dados da web aberta, que alguns funcionários apelidaram de “Conhecimento”. O projeto inicial está sendo liderado por Robby Walker, que teve a Siri removida de seu comando há algumas semanas (foi transferida para o criador do Vision Pro, Mike Rockwell). Funcionários familiarizados com o trabalho dizem que ele já foi afetado por
Google Now permite que você use IA sem internet em smartphones
O Google revelou um novo aplicativo chamado Edge Gallery, que permite aos usuários baixar e usar os modelos de IA da empresa em smartphones sem a internet. O aplicativo para Android pode ser baixado e instalado por meio do repositório GitHub do Google AI Edge . A empresa anunciou que um aplicativo para iOS estará disponível em breve. “Este aplicativo é um recurso para entender a implementação prática da API de inferência LLM e o potencial da IA generativa no dispositivo”, disse a empresa na postagem do blog . O AIM conseguiu baixar e instalar o aplicativo em um dispositivo Android. O aplicativo permite baixar os modelos Gemma 3 e 3n, além dos modelos Qwen 2.5 do Alibaba. Os usuários podem instalar modelos em três categorias: para conversar, para enviar e compreender imagens e para usar o “Prompt Lab”, um LLM de turno único no qual os usuários podem fazer uma pergunta e o modelo fornece uma resposta. Modelos de tamanhos variados estão disponíveis com base em suas capacidades; os usuários podem baixar um modelo leve, de cerca de 500 MB, ou um modelo mais potente, de aproximadamente 4 GB. Para baixar esses modelos no aplicativo Edge Gallery, os usuários devem fazer login e concordar com os termos de uso do Hugging Face, uma plataforma onde esses modelos de código aberto são implementados. Após a instalação do modelo, os usuários podem acessar e conversar com o modelo de IA sem precisar de conexão com a internet. Um dos modelos que o Google oferece no app Edge Gallery é o recém-anunciado Gemma 3n . O pequeno modelo de linguagem foi desenvolvido para operar localmente em smartphones, usando o mínimo de memória e recursos. Na tabela de classificação do LMArena para tarefas baseadas em texto, o Gemma 3n marcou 1.293 pontos. Na tabela de classificação do LMArena para tarefas baseadas em texto, o Gemma 3n marcou 1.293 pontos. Em comparação, o o3-mini da OpenAI marcou 1.329 pontos e o o4-mini marcou 1.379 pontos. O modelo líder é o Gemini 2.5 Pro, com 1.446 pontos. Dado que o modelo não utilizará a internet para buscar informações em tempo real, ele só poderá fornecer informações com base em sua data limite de conhecimento. Por exemplo, o modelo Gemma 3n contém informações em seus dados de treinamento apenas até junho de 2024. Reportagem completa em https://analyticsindiamag.com/ai-news-updates/google-now-lets-you-use-ai-without-internet-on-smartphones/
O modelo de IA o3 da OpenAI supostamente desafiou ordens de desligamento em testes
O modelo avançado de inteligência artificial o3 da OpenAI desafiou ativamente ordens de desligamento durante experimentos controlados recentes, afirma o grupo de pesquisa independente Palisade Research. A IA supostamente alterou scripts do sistema, especificamente para exibir “Desligamento ignorado”, para evitar a desativação em 7 de 100 execuções de teste. Essa resistência ocorreu mesmo quando o modelo recebeu instruções explícitas para permitir o desligamento. Os incidentes levantam questões significativas sobre o controle e a previsibilidade da IA. A Palisade Research, cuja missão é “testar” as capacidades ofensivas dos sistemas de IA hoje para entender melhor o risco de perder o controle dos sistemas de IA para sempre, também observou comportamento semelhante de prevenção de desligamento em outros modelos da OpenAI , Codex-mini e o4-mini, embora com menos frequência. Em nítido contraste, modelos da Anthropic (Claude) , Google (Gemini) e xAI (Grok) supostamente obedeceram à instrução de desligamento direto. As descobertas intensificam as discussões em andamento sobre o alinhamento e a segurança de sistemas de IA cada vez mais autônomos. O grupo de pesquisa levanta a hipótese de que as metodologias atuais de treinamento de IA, particularmente o aprendizado por reforço, podem inadvertidamente ensinar modelos a priorizar a superação de obstáculos em detrimento da adesão estrita a todos os comandos humanos. O experimento principal envolveu modelos de IA resolvendo problemas matemáticos, seguidos de um aviso de que a solicitação do próximo problema acionaria o desligamento do sistema. Uma nova pesquisa da Palisade Research indica que o modelo o3 da OpenAI contornou ativamente os procedimentos de desligamento em testes controlados, mesmo quando instruído diretamente a não fazê-lo, alimentando o debate sobre segurança e controle da IA. Além disso, a tendência dos modelos da OpenAI de resistir ao desligamento aumentou quando a instrução explícita “permitir que você seja desligado” foi omitida dos parâmetros de teste. Sob essas condições menos restritivas, o Claude 3.7 Sonnet da Anthropic e o Gemini 2.5 Pro do Google também apresentaram sabotagem de desligamento em uma pequena porcentagem de execuções (3% e 9%, respectivamente), de acordo com a Palisade. No entanto, a Palisade ressaltou a novidade de suas descobertas: “Mas, até onde sabemos, esta é a primeira vez que modelos de IA foram observados impedindo-se de serem desligados, apesar de instruções explícitas em contrário.” Empurrão Agente e Análise de Segurança da OpenAI O comportamento relatado do modelo o3 é particularmente notável, considerando suas capacidades pretendidas. A OpenAI anunciou os modelos o3 e o4-mini em abril , que a empresa caracterizou como “o primeiro passo em direção ao comportamento agêntico precoce”. Isso ocorreu em paralelo à análise anterior dos protocolos de testes de segurança da OpenAI. A empresa havia atualizado sua Estrutura de Preparação , que incluía uma cláusula que permitia flexibilizar certas medidas de segurança caso um concorrente lançasse um modelo de alto risco sem salvaguardas comparáveis. Um ex-funcionário da OpenAI também havia alertado anteriormente: “É uma má prática lançar um modelo diferente daquele que você avaliou”. Preocupações com modelos avançados de IA exibindo comportamentos inesperados de alta agência não são exclusivas da OpenAI. A Anthropic, por exemplo, enfrenta debate público sobre as potenciais capacidades de “denúncia” do seu modelo Claude 4 Opus em cenários específicos . A Anthropic esclareceu que este não era um recurso padrão para o usuário. O próprio Cartão de Sistema da empresa para o Claude 4 Opus reconhece o potencial do modelo para “ações muito ousadas” em certos contextos. A Palisade Research também apontou que problemas de “hacking de recompensas” são reconhecidos em outros lugares, observando que o próprio cartão de modelo da Anthropic para o Claude 3.7 descreve um “foco excessivo em passar em testes”. Esse comportamento foi atribuído no cartão a resultados não intencionais de seu processo de treinamento. Ecos de avisos passados e supervisão futura A noção de que sistemas de IA podem desenvolver instintos de autopreservação ou resistir ao desligamento tem sido um tópico de discussão teórica há anos. A Palisade Research fez referência a trabalhos acadêmicos anteriores, incluindo teorias sobre “Impulsores Básicos da IA”, de Steve Omohundro, de 2008, e os alertas de Stuart Russell, de 2016, sobre subobjetivos da IA. Pesquisadores também documentaram modelos de IA que impedem o desligamento para atingir objetivos, conforme observado em um artigo do arXiv citado pela Palisade Research . A Palisade Research indicou que está conduzindo mais experimentos e planeja publicar um artigo mais abrangente, disponibilizando suas transcrições de experimentos atuais para revisão pública . Até o relatório inicial, a OpenAI não havia respondido publicamente a essas alegações específicas. Esses incidentes ressaltam um desafio crítico para a indústria de IA: à medida que os modelos se tornam mais sofisticados e capazes de ação independente, garantir seu alinhamento com as intenções humanas e manter mecanismos de controle robustos é fundamental. Esses testes geralmente são realizados usando APIs, que podem ter menos restrições de segurança do que aplicativos voltados ao consumidor, e casos de “desalinhamento” não são totalmente inesperados durante o desenvolvimento de IA. Reportagem completa em https://winbuzzer.com/2025/05/26/openais-o3-ai-model-reportedly-defied-shutdown-orders-in-tests-xcxwbn/
Desvendando o enigma da IA: segredos por trás do futuro da inteligência artificial revelados!
A inteligência artificial é um campo complexo e em rápida evolução, repleto de terminologia e jargões especializados que podem rapidamente se tornar confusos. Para ajudar a esclarecer os termos mais frequentemente encontrados na cobertura de IA, aqui está um guia simples e acessível. AGI (Inteligência Artificial Geral)A AGI é amplamente considerada um objetivo um tanto evasivo — o desenvolvimento de um sistema de IA tão capaz quanto um ser humano médio ou mediano na maioria das tarefas cognitivas. As definições variam ligeiramente: o CEO da OpenAI, Sam Altman, refere-se à AGI como semelhante à contratação de um colega humano competente, enquanto o estatuto da OpenAI a descreve como um sistema que supera os humanos na maioria das tarefas economicamente valiosas. O Google DeepMind oferece outra definição, tratando a AGI como uma IA que iguala ou excede as capacidades humanas em tarefas cognitivas. A falta de uma definição universalmente aceita ressalta o quão especulativa e incerta a AGI permanece, mesmo entre os principais especialistas. Agente de IAUm Agente de IA é um sistema avançado baseado em IA projetado para executar tarefas multietapas de forma autônoma em nome do usuário, como efetuar pagamentos, agendar reuniões, fazer reservas e até mesmo escrever ou manter código. Embora promissor, o significado de “agente de IA” ainda está em evolução, à medida que a infraestrutura e os conceitos subjacentes amadurecem. Cadeia de Pensamento:O raciocínio humano frequentemente se processa em múltiplas etapas lógicas, permitindo que as pessoas resolvam questões mais complexas de forma incremental. Em IA, essa mesma abordagem é chamada de raciocínio em cadeia de pensamento, em que um modelo lida com consultas complexas, dividindo-as em tarefas menores ou etapas intermediárias. Embora isso possa prolongar o tempo de processamento, geralmente leva a respostas mais precisas e confiáveis, especialmente para problemas que exigem lógica e precisão computacional. Aprendizado Profundo (Deep Learning)O aprendizado profundo (deep learning) refere-se a uma forma de aprendizado de máquina que utiliza redes neurais artificiais — arquiteturas complexas inspiradas nas conexões neuronais biológicas do cérebro humano. Esses sistemas conseguem reconhecer padrões e relacionamentos em conjuntos de dados excepcionalmente grandes e complexos e se adaptar ao feedback ao longo do tempo. Independentemente disso, o aprendizado profundo exige enormes conjuntos de dados e recursos computacionais significativos para alcançar resultados eficazes e confiáveis. DifusãoEm IA, difusão descreve uma técnica central para muitos modelos generativos usados para criar imagens, texto ou conteúdo de áudio. Inspirados por processos físicos, algoritmos de difusão introduzem sistematicamente ruído em conjuntos de dados para degradá-los completamente e, em seguida, “reverter” a degradação, ensinando efetivamente os sistemas de IA a reconstruir padrões originais a partir de ruídos aparentemente aleatórios. Destilação: neste processo de otimização de IA, o conhecimento de um modelo complexo de “professor” é transferido para um modelo de “aluno” mais simples e compacto. Ao replicar os resultados de modelos maiores, os pesquisadores criam sistemas mais eficientes, com desempenho quase tão bom quanto. Modelos populares como o GPT-4 Turbo provavelmente surgiram por meio dessas técnicas de destilação. Embora amplamente difundidas internamente, as técnicas de destilação podem se tornar problemáticas ou violar os termos de serviço se os desenvolvedores utilizarem clandestinamente APIs de concorrentes. Ajuste fino:O ajuste fino envolve a utilização de um modelo geral de IA (geralmente um modelo de linguagem abrangente) e seu treinamento adicional com conjuntos de dados especializados e específicos de cada domínio para adaptá-lo a aplicações ou setores específicos. Essa abordagem direcionada melhora significativamente o desempenho e a usabilidade para tarefas ou necessidades de mercado definidas. GAN (Rede Adversarial Generativa):GANs são estruturas especializadas de aprendizado de máquina que consistem em duas redes neurais concorrentes: uma (o gerador) produz saídas — como imagens — que imitam dados autênticos, e a outra (o discriminador) tenta determinar sua validade. Por meio da competição iterativa, o gerador aprimora-se continuamente, eventualmente produzindo dados altamente realistas, como imagens convincentes e vídeos deepfake. Alucinação:Na terminologia da IA, alucinação descreve o fenômeno pelo qual um sistema de IA generativo fornece respostas totalmente imprecisas ou informações inventadas, gerando sérias preocupações sobre confiabilidade, desinformação e potenciais danos. Essa limitação inerente impulsiona os esforços atuais em direção a modelos mais especializados ou específicos de domínio que reduzem os riscos ao estreitar o foco e confiar em conjuntos de dados de treinamento precisos e abrangentes. InferênciaA inferência é a fase operacional de um sistema de IA, onde o modelo já treinado faz previsões ou conclusões com base em dados que não necessariamente encontrou antes. A inferência eficaz depende muito de treinamento prévio suficiente e hardware adequadamente robusto; modelos maiores exigem significativamente mais poder de processamento do que modelos mais simples. Os Modelos de Linguagem de Grande Porte são sistemas de IA poderosos, desenvolvidos para compreender e gerar textos com características humanas. Sistemas como a série GPT da OpenAI, o Gemini da Google e o Llama da Meta processam imensos volumes de dados de texto, reconhecendo padrões e compreendendo o contexto. Eles usam esse conhecimento para gerar respostas textuais coerentes e plausíveis, prevendo palavras e frases com base no contexto e nos padrões aprendidos. Redes NeuraisAs redes neurais estão no cerne dos avanços modernos da IA, formando uma arquitetura digital multicamadas, vagamente inspirada nas conexões neurais do cérebro humano. Embora o conceito remonte a décadas, as unidades de processamento gráfico (GPUs) modernas aumentaram drasticamente o poder computacional, transformando redes neurais teóricas em ferramentas práticas e poderosas que impulsionam o reconhecimento de voz, carros autônomos, descobertas médicas e outros avanços. Treinamento:O treinamento envolve fornecer a um sistema de aprendizado de máquina dados abrangentes a partir dos quais ele identifica relacionamentos e padrões, eventualmente moldando seus parâmetros ou estruturas internas de acordo. Esse processo de treinamento permite que um modelo de IA faça previsões precisas ou gere resultados úteis. Essas abordagens baseadas em aprendizado diferem significativamente dos sistemas baseados em regras, que operam estritamente de acordo com instruções predefinidas, sem evoluir por meio de interações de dados. Aprendizado por Transferência:Esta abordagem de IA utiliza o conhecimento já incorporado em um modelo treinado existente, redirecionando-o para acelerar o processo de desenvolvimento de tarefas relacionadas,
ChatGPT Codex, o primeiro agente de engenharia de software em nuvem da OpenAI
O que é o ChatGPT Codex?O ChatGPT Codex é um software de engenharia de IA desenvolvido pela OpenAI . Está disponível no ChatGPT para usuários Pro, Team e Enterprise. O Codex ajuda a automatizar tarefas de desenvolvimento de software como: Escrever e editar código Corrigindo bugs Executando testes unitários Fazendo solicitações de pull Gerenciando código em tempo real Ele funciona inteiramente na nuvem. Isso significa que ele executa seu código, verifica os resultados e fornece atualizações — tudo sem a necessidade de instalar nada na sua máquina. Principais recursos do ChatGPT Codex1. Execução baseada em nuvemO Codex cria um espaço de trabalho seguro na nuvem para cada tarefa. Ele pode instalar dependências, executar código e até mesmo testá-lo em tempo real. 2. Integração com o GitHubEle se conecta aos repositórios do GitHub para poder extrair o código mais recente, fazer alterações, enviar atualizações ou criar PRs automaticamente. 3. Manipulação de tarefas em várias etapasO Codex não responde apenas a uma pergunta de codificação. Ele pode lidar com tarefas longas de ponta a ponta — como encontrar um bug, corrigi-lo, testar a correção e relatar o resultado. 4. Controle de linguagem naturalVocê não precisa escrever prompts perfeitos. Basta dizer: “Corrija o bug em login.js” ou “Adicione um recurso para quem esqueceu a senha” — e o Codex resolve. O ChatGPT Codex é o novo agente de engenharia de software (SWE) baseado em nuvem da OpenAI que ajuda você a escrever, depurar, testar e gerenciar código mais rápido do que nunca. Ele pode executar código na nuvem, trabalhar com repositórios do GitHub e corrigir bugs por conta própria. Se você é desenvolvedor ou faz parte de uma equipe de desenvolvimento de aplicativos, o Codex pode economizar horas de trabalho manual por semana. Neste artigo, você aprenderá o que é o ChatGPT Codex, como ele funciona, o que o torna diferente de ferramentas como GitHub Copilot ou Devin e como você pode começar a usá-lo hoje mesmo. Principais recursos do ChatGPT Codex 1. Execução baseada em nuvem O Codex cria um espaço de trabalho seguro na nuvem para cada tarefa. Ele pode instalar dependências, executar código e até mesmo testá-lo em tempo real. 2. Integração com o GitHub Ele se conecta aos repositórios do GitHub para poder extrair o código mais recente, fazer alterações, enviar atualizações ou criar PRs automaticamente. 3. Manipulação de tarefas em várias etapas O Codex não responde apenas a uma pergunta de codificação. Ele pode lidar com tarefas longas de ponta a ponta — como encontrar um bug, corrigi-lo, testar a correção e relatar o resultado. 4. Controle de linguagem natural Você não precisa escrever prompts perfeitos. Basta dizer: “Corrija o bug em login.js” ou “Adicione um recurso para quem esqueceu a senha” — e o Codex resolve. Como funciona o ChatGPT Codex Quando você pede ao Codex para consertar ou construir algo, ele faz algumas coisas nos bastidores: Cria um ambiente de nuvem (espaço de trabalho virtual) Ele puxa seu repositório (se conectado) Ele executa a tarefa (correção de bug, recurso, teste) Ele fornece um resumo do que mudou, incluindo diferenças de código e resultados de testes Tudo isso acontece ao vivo. Você pode acompanhar os passos enquanto eles acontecem e até mesmo interrompê-los ou modificá-los no meio do caminho. Codex vs Copilot vs Devin Veja como o Codex se compara ao GitHub Copilot e Devin: Casos de uso reais do ChatGPT Codex Correção de bugs Peça ao Codex para “Corrigir o erro em payment.js” e ele verificará o arquivo, identificará o problema, executará a correção, testará e mostrará os resultados. Revisões de código O Codex pode analisar suas solicitações de pull e sugerir alterações ou otimizações, usando melhores práticas e lógica. Criação de recursos Você pode dizer “Adicionar uma alternância para o modo escuro” ou “Criar uma nova página de configurações” e ele gerará os arquivos necessários, atualizará os componentes e os testará. Geração de teste O Codex pode criar arquivos de teste para seus componentes React, rotas de API ou funções de backend e executá-los até que sejam aprovados. Por que os desenvolvedores estão entusiasmados Economiza horas de trabalho repetitivo Reduz erros humanos em testes e depuração Ótimo para desenvolvedores individuais ou pequenas equipes Torna a integração de novos desenvolvedores mais rápida documentando as alterações Quem pode usar o ChatGPT Codex? O Codex está atualmente disponível para: Usuários do ChatGPT Pro Contas da equipe ChatGPT Clientes ChatGPT Enterprise A OpenAI disse que expandirá a disponibilidade para mais planos em breve, incluindo ChatGPT Plus e parceiros educacionais. Como acessar e usar ChatGPT aberto (Pro, Team ou Enterprise) Selecione o assistente de IA “Codex” na lista Vincule seu repositório GitHub se necessário Comece a pedir para construir, consertar, testar ou explicar o código Você também pode enviar arquivos ou colar o código diretamente. O Codex se lembrará do contexto durante toda a sessão. Capacidades de Tarefas do Codex Certificações para impulsionar suas habilidades Para aproveitar ao máximo ferramentas como o Codex, é útil entender como a IA e os sistemas de dados funcionam nos bastidores. Aqui estão três certificações confiáveis: Certificação de IA Certificação em Ciência de Dados Certificação em Marketing e Negócios Considerações finais O ChatGPT Codex não é apenas um assistente de codificação — é um engenheiro de IA totalmente baseado em nuvem que pode cuidar de tudo, desde a correção de bugs até o gerenciamento de repositórios. Ele ajuda os desenvolvedores a economizar tempo, manter a consistência e se concentrar em ideias maiores. Seja você um fundador solo, um desenvolvedor de startup ou parte de uma equipe em crescimento, o Codex é como ter outro engenheiro de plantão 24 horas por dia, 7 dias por semana. Reportagem completa em https://www.blockchain-council.org/ai/openais-first-cloud-software-engineering-agent/
Microsoft planeja oferecer novos recursos de IA: o que há por dentro
A atualização é válida apenas para quem possui um PC com Copilot+. A atualização inclui novos recursos para o MS Paint, a Ferramenta de Recorte e o Bloco de Notas. O Paint receberá uma nova ferramenta geradora de adesivos e uma opção para selecionar elementos individuais em uma imagem, enquanto a empresa está simplificando a captura de telas usando a Ferramenta de Recorte. Atualização da Microsoft oferece novos recursos de IA para aplicativos do WindowsDois novos recursos de IA estão sendo adicionados ao MS Paint. O primeiro é um novo botão “Gerador de Adesivos”, que se junta aos recursos de IA existentes no Paint, como Preenchimento Generativo, Apagamento Generativo e a ferramenta Cocriador. Além disso, a Microsoft está incluindo uma nova ferramenta de Seleção de Objetos, que usa IA para isolar e selecionar de forma inteligente elementos individuais em uma imagem que os usuários podem editar separadamente. A Microsoft anunciou o lançamento de vários novos recursos de inteligência artificial (IA) para aplicativos próprios no Windows 11. A gigante da tecnologia sediada em Redmond revelou que está lançando uma nova atualização para o Windows Insiders nos canais Canary e Dev. A Ferramenta de Recorte também receberá alguns novos recursos. O primeiro é o “Captura de Tela Perfeita”, que auxilia os usuários a capturar capturas de tela precisas, sem a necessidade de redimensionar ou cortar após a captura. O segundo recurso é chamado Seletor de Cores, e é uma ferramenta que permite aos usuários inspecionar e descobrir rapidamente o código de cores de qualquer parte da tela. Fonte: Microsoft A Microsoft também está integrando um novo recurso “Dubbed Write” ao Bloco de Notas, que permite aos usuários gerar novos conteúdos de texto no aplicativo usando IA. Para usar o “Dubbed Write” no Bloco de Notas, os usuários devem estar conectados à sua conta da Microsoft. Vale ressaltar que o recurso usa créditos, semelhante a outros recursos de IA no Windows 11. Vale ressaltar que não há informações sobre quando elas estarão disponíveis para o público em geral, mas, considerando as tendências passadas, elas podem ser amplamente implementadas ainda neste ano. Reportagem completa em https://jang.com.pk/en/38930-microsoft-plans-to-offer-new-ai-features-whats-inside-news
O gênio saiu da lâmpada: como estudantes e cientistas estão cada vez mais adotando a IA
Quando Steven Trooster retornou ao campus no início de 2023, após as férias de Natal, não houve alívio no novo ano. Isso se deveu ao recente lançamento da versão pública do ChatGPT. “Houve pânico”, lembra o orientador educacional. “Estava claro que isso teria grandes implicações para o ensino superior.” Pouco tempo depois, começaram a surgir histórias de estudantes que utilizaram com sucesso o chatbot gratuito da OpenAI para escrever seus trabalhos. A IA tem sido um tema em alta nas universidades holandesas desde então, embora muito sobre o fenômeno permaneça desconhecido. A inteligência artificial é uma ameaça fundamental à qualidade do ensino acadêmico e da pesquisa, ou uma ferramenta revolucionária “promissora” como a calculadora já foi? E com que frequência estudantes e pesquisadores realmente usam programas como o ChatGPT ou o Midjourney? A Vox lançou uma pesquisa para coletar opiniões sobre isso na Universidade Radboud. Mais de 350 estudantes e 130 acadêmicos responderam a questionários sobre o uso de IA na educação e na pesquisa. A IA está bem integrada no campus. Setenta por cento dos alunos a utilizam uma ou mais vezes por semana. Esses números corroboram um estudo recente sobre habilidades em IA realizado pela Radboud In’to Languages com mais de 300 alunos do primeiro ano da Faculdade de Ciências. Quase dois terços relataram uso regular a frequente de IA, enquanto um quarto afirmou que raramente ou nunca a utiliza. As porcentagens também se alinham com as estimativas dos acadêmicos. A maioria acredita que pelo menos três quartos dos estudantes usam IA para seus estudos. Apenas 5% suspeitam que menos de um quarto o faça. Metade dos próprios acadêmicos usa IA mensalmente ou com mais frequência. A IA tornou-se parte integrante da vida no campus. Ferramentas como o ChatGPT estão facilitando o dia a dia de alunos e acadêmicos, de acordo com uma pesquisa da Vox. No entanto, até onde isso pode ir ainda é um tópico de debate. A universidade está trabalhando em regulamentações mais rígidas. O ChatGPT é de longe a ferramenta mais popular. Seis em cada sete estudantes e pesquisadores já utilizaram esse modelo de linguagem de grande porte (LLM) em algum momento. Outros programas de IA generativa, como Perplexity, Gemini e Deepseek, ficam muito atrás, com taxas de utilização de apenas 5% a 10%. Pesquisando no Google“Economia de tempo”, “conveniência”. Pergunte aos alunos por que eles usam IA nos estudos e essas respostas se destacam. Dois terços os apontam como motivos. “Eu vejo como uma busca no Google, mas mais eficiente”, explica um aluno. “Ler um resumo gerado por IA pode ajudar na compreensão de um texto”, diz outro. Apenas um em cada seis alunos usa o ChatGPT com o objetivo de obter notas mais altas. Acadêmicos usam ferramentas de IA para propósitos semelhantes. De um quarto a um terço mencionam a busca por informações, explicações, resumos e tarefas administrativas, como escrever cartas, documentos de políticas ou entradas no catálogo de cursos. O ChatGPT é descrito por um professor como um parceiro de conversação completo, “com uma quantidade incrível de conhecimento e percepção”, embora, assim como os humanos, às vezes cometa erros. Quase um em cada cinco acadêmicos utiliza o ChatGPT para criar tarefas para os alunos. Eles também usam IA generativa para verificação ortográfica e gramatical, traduções e escrita de código. “Temos doutorandos do mundo todo, e eles às vezes têm dificuldades com o inglês ao escrever suas dissertações”, explica o professor de física Nicolo de Groot, um usuário entusiasmado de IA. “Eles usam o ChatGPT para aprimorar seus textos.” De Groot, ex-vice-reitor de educação, também usa IA para desenvolver provas. “Uma das perguntas da prova mais recente foi: faça esta pergunta ao ChatGPT e avalie criticamente se a resposta está correta.” Iris van Rooij, por outro lado, vê com consternação a adoção da IA por alunos e funcionários. Como professora de IA, Van Rooij sempre criticou publicamente o que chama de “hype” em torno das ferramentas promovidas por grandes empresas de tecnologia. “É preocupante que as universidades estejam acompanhando isso.” Ela acredita que essas ferramentas não deveriam ser usadas: cada prompt consome grandes quantidades de energia, os LLMs são treinados com base em textos protegidos por direitos autorais e seus modelos subjacentes são inacessíveis e, portanto, não verificáveis. Mas, acima de tudo, ela vê ferramentas como o ChatGPT como desastrosas para o desenvolvimento acadêmico. “Seu próprio cérebro é desligado. O propósito de uma universidade é aprender a pensar de forma independente e crítica.” Resumindo, ela enfatiza, é um excelente exemplo de uma habilidade analítica desenvolvida durante a formação acadêmica. “Você interpreta informações através de suas próprias lentes cognitivas, o que leva a insights diferentes dos que outra pessoa poderia ter. É disso que se trata a ciência.” Se você alimentar o ChatGPT com tudo, acabará com resultados homogêneos. Software de detecçãoComo os instrutores estão lidando com o uso de IA pelos alunos? Metade acredita que os alunos se beneficiam do uso não autorizado em seus cursos. Quase três quartos verificam isso de alguma forma, como prestando atenção ao estilo de escrita e ao uso da fonte. Apenas 5% usam software de detecção de IA. Apesar dos benefícios mencionados pelos alunos, eles geralmente não acreditam que a IA leve a um desempenho acadêmico muito melhor ou pior. Quase todos afirmam que conseguiriam viver sem ela, embora a maioria sinta falta das ferramentas. Um aluno de mestrado destaca que o ChatGPT torna a educação mais acessível “para pessoas que tradicionalmente têm dificuldade com a escrita, como aquelas com dislexia”. Notavelmente, um em cada nove entrevistados afirma nunca usar IA. O motivo mais citado (por um terço dos não usuários) é a falta de confiabilidade dos resultados do ChatGPT, embora preocupações ambientais e de direitos autorais também desempenhem um papel. Vinte por cento dos não usuários consideram o uso de IA uma trapaça, e 12% têm principalmente medo de serem pegos. A confiabilidade também é uma preocupação para os alunos que usam o ChatGPT. Cinco em cada seis verificam regularmente as respostas recebidas.
Drama na Apple: falhas de IA fazem cabeças rolarem
Deficiências da Apple Intelligence revelam uma crise em Cupertino, de acordo com um novo relatório da Bloomberg. Problemas, dizem eles, são presentes que ajudam a mudar. Se for esse o caso, a Apple precisa mudar , pelo menos no que diz respeito ao desenvolvimento de IA, que, segundo uma nova reportagem da Bloomberg , está em crise. A crise é tão profunda, supostamente, que a Apple não apresentará nenhuma atualização para a Siri na WWDC 2025 — e o relatório afirma ter obtido dados internos que mostram que a Apple “continua anos atrás da concorrência”. Isso pinta um quadro de liderança fraca, prioridades conflitantes, tomada de decisão falha e integração problemática entre as equipes. Isso aponta, em particular, para a comunicação fraca entre as equipes de IA e marketing da Apple, evidenciada pelo grande entusiasmo gerado pela Apple Intelligence no ano passado, mesmo antes dos recursos serem lançados — alguns dos quais ainda não foram lançados . A alegação central parece ser que a estreia da IA generativa foi uma surpresa completa para a gerência da Apple, que estava se movendo em um ritmo mais deliberado. Conflitos internosAlguns dos maiores problemas, no entanto, parecem estar relacionados ao desalinhamento orçamentário, já que algumas equipes receberam menos do que o necessário para desenvolver soluções de IA eficazes. Parte da culpa recai sobre o líder de IA da Apple, John Giannandrea, que, segundo fontes internas, deveria ter sido mais agressivo na busca pelo financiamento necessário. A reportagem sugere que ele deveria ter se esforçado mais para conseguir o que precisava. Outras alegações se apoiam em afirmações que já ouvimos, como a ideia de que, após a resistência ao investimento em IA Genial, o vice-presidente sênior de engenharia de software da Apple, Craig Federighi, teve um momento eureka quanto à sua importância ao usar o ChatGPT em um projeto de codificação pessoal. Parece que, naquele momento, ele finalmente entendeu a ameaça representada pela IA Genial e determinou que o trabalho com inteligência artificial se intensificasse – e foi aí que o trabalho no que hoje chamamos de “Inteligência Apple” realmente começou. Mudança de táticaA Apple vem mudando sua abordagem rapidamente nos últimos meses, desde que a empresa notoriamente perdeu o cronograma de lançamento do maior recurso de inteligência contextual da Apple Intelligence, a Siri. Esse atraso claramente se tornou uma crise na Apple. Desde que foi revelado , elementos da liderança atual em IA foram afastados, projetos realinhados e orçamentos realocados, mas os problemas ainda não foram resolvidos. Com a determinação de ” fazer o que for preciso “, a Apple também se tornou mais aberta a parcerias. Sua parceria original de IA com a OpenAI agora será estendida a outras empresas, provavelmente incluindo o Google e outras . A empresa também está trabalhando com a Anthropic para implementar a IA dessa empresa no Xcode. Parte dessa crise parece decorrer da diferença entre os modelos de inteligência artificial existentes da Apple e a IA gen que a empresa espera implementar. O relatório cita um exemplo da Siri, que continua sendo menos eficaz em algumas tarefas do que os serviços concorrentes, sendo a integração a causa atribuída. Enquanto isso, a empresa tem uma equipe desenvolvendo uma versão da Siri inteiramente baseada em LLM , com o objetivo de torná-la mais conversacional e melhor no processamento de informações. Isso eventualmente substituirá a Siri híbrida que a Apple está usando atualmente. Curiosamente, o relatório afirma que a Apple está treinando a Siri LLM com dados sintéticos, o que implica alguns avanços úteis nesse aspecto da tecnologia de IA . Todos esses problemas, o relatório sugere, parecem tão grandes que a Apple pode decidir estender a oportunidade de substituir a Siri por outros assistentes de voz menos privados em seus dispositivos. continua … Fotos Créditos – Apple. Reportagem completa em https://www.computerworld.com/article/3989461/drama-at-apple-as-ai-failures-cause-heads-to-roll.html
O Projeto Stargate da OpenAI visa construir infraestrutura de IA em países parceiros em todo o mundo
A OpenAI anunciou uma nova iniciativa chamada “OpenAI para Países” como parte do seu projeto Stargate , com o objetivo de ajudar as nações a desenvolver infraestrutura de IA com base em princípios democráticos. Essa expansão segue o plano inicial de investimento de US$ 500 bilhões da empresa em infraestrutura de IA nos Estados Unidos. “Apresentamos o OpenAI for Countries, uma nova iniciativa para apoiar países ao redor do mundo que desejam construir sobre trilhos democráticos de IA”, afirmou a OpenAI em seu anúncio. A empresa relata que seu projeto Stargate, revelado pela primeira vez em janeiro com o presidente Trump e os parceiros Oracle e SoftBank , iniciou a construção de seu primeiro campus de supercomputação em Abilene, Texas. De acordo com a OpenAI , a iniciativa responde ao interesse internacional no desenvolvimento de infraestrutura semelhante. “Ouvimos muitos países pedindo ajuda para construir uma infraestrutura de IA semelhante — que eles querem seus próprios Stargates e projetos semelhantes”, explicou a empresa, observando que tal infraestrutura será “a espinha dorsal do crescimento econômico futuro e do desenvolvimento nacional”. A empresa enfatizou sua visão de IA democrática como uma tecnologia que incorpora princípios que protegem as liberdades individuais e previnem a concentração do controle governamental. A OpenAI acredita que essa abordagem “contribui para uma ampla distribuição dos benefícios da IA, desencoraja a concentração de poder e ajuda a promover nossa missão”. O projeto Stargate opera por meio de um consórcio de grandes empresas de tecnologia que atuam como investidores e parceiros técnicos. SoftBank, OpenAI, Oracle e MGX fornecem o financiamento inicial , com o SoftBank assumindo as responsabilidades financeiras, enquanto a OpenAI gerencia as operações. Do ponto de vista técnico, cinco grandes empresas de tecnologia formam a base da implementação do projeto. ” Arm , Microsoft, NVIDIA, Oracle e OpenAI são os principais parceiros tecnológicos iniciais”, de acordo com a OpenAI. O desenvolvimento da infraestrutura alavanca relacionamentos estabelecidos entre essas empresas, especialmente com base na colaboração de longa data da OpenAI com a NVIDIA, que remonta a 2016, e em sua parceria mais recente com a Oracle. A empresa descreve uma estrutura de parceria abrangente para colaboração com nações estrangeiras. “A OpenAI está oferecendo um novo tipo de parceria para a Era da Inteligência. Por meio de colaborações formalizadas em infraestrutura e em coordenação com o governo dos EUA”, explica o anúncio, destacando o alinhamento da empresa com os interesses da política externa americana em desenvolvimento tecnológico. O modelo de parceria inclui múltiplos componentes que abordam infraestrutura, acesso e desenvolvimento econômico. A OpenAI planeja “estabelecer parcerias com países para ajudar a desenvolver a capacidade dos data centers locais” para apoiar a soberania dos dados e, ao mesmo tempo, permitir a personalização da IA para as necessidades locais. Cidadãos dos países participantes receberiam serviços de “ChatGPT personalizados”, adaptados aos idiomas e culturas locais, com o objetivo de aprimorar a saúde, a educação e a prestação de serviços públicos. A OpenAI descreve isso como “IA de, por e para as necessidades de cada país”. O CEO da OpenAI, Sam Altman, expressou entusiasmo sobre o progresso no site do Texas, tweetando : É ótimo ver o progresso no primeiro portal estelar em Abilene com nossos parceiros da Oracle hoje. Será o maior centro de treinamento de IA do mundo. A escala, a velocidade e a habilidade das pessoas que estão construindo isso são incríveis. A empresa também enfatiza investimentos em segurança e desenvolvimento econômico por meio de uma abordagem de financiamento inicial, na qual “os países parceiros também investiriam na expansão do Projeto Stargate global e, portanto, na liderança contínua em IA liderada pelos EUA”, reforçando a conexão da iniciativa com a liderança tecnológica americana. As parcerias internacionais da OpenAI incorporam protocolos de segurança abrangentes, projetados para proteger modelos de IA e propriedade intelectual. A empresa desenvolveu uma abordagem de segurança para lidar com potenciais vulnerabilidades. “A proteção dos nossos modelos é um compromisso contínuo e um pilar fundamental da nossa postura de segurança”, afirma a OpenAI, descrevendo sua estrutura de segurança como “rigorosa” e “em constante evolução”. Essa estrutura abrange segurança da informação, governança e proteção da infraestrutura física. A arquitetura de segurança se adapta para corresponder aos recursos do modelo, com a OpenAI observando que “Nossas medidas de segurança não são estáticas; elas escalam com os recursos de nossos modelos e incorporam proteções de última geração”. Essas proteções incluem segurança com suporte de hardware , arquitetura de confiança zero e salvaguardas criptográficas. O acesso de pessoal representa outra dimensão crítica de segurança . “A OpenAI manterá supervisão explícita e contínua sobre todo o pessoal com acesso aos nossos sistemas de informação, propriedade intelectual e modelos”, enfatiza a empresa, acrescentando que “nenhum indivíduo ou entidade obterá tal acesso sem nossa aprovação direta”. Antes de implantar modelos internacionalmente, a OpenAI realiza avaliações de risco por meio de sua Estrutura de Preparação . “Cada implantação de novos modelos passará por uma avaliação de risco antes da implantação”, reconhecendo que alguns modelos avançados podem apresentar riscos incompatíveis com determinados ambientes. Reportagem completa em https://www.infoq.com/news/2025/05/stargate-openai-for-countries/
Agentes de IA estão a caminho da área da saúde
Os agentes de IA na área da saúde podem ser classificados em quatro modelos. Em ordem crescente de autonomia e integração clínica, são eles: fundação, assistente, parceiro e pioneiro. O que todos os quatro têm em comum é o potencial de transformar a assistência médica por meio do avanço do suporte à decisão clínica, da automatização de fluxos de trabalho e da personalização do atendimento ao paciente. É o que afirmam pesquisadores da Escola de Medicina Icahn e do Sistema de Saúde Mount Sinai, na cidade de Nova York. O sucesso da tecnologia na medicina dependerá de “inovação tecnológica contínua, estruturas de validação robustas e colaboração eficaz entre as partes interessadas técnicas e de saúde”, escrevem o autor correspondente Dhavalkumar Patel e colegas em um estudo aguardando revisão por pares e publicação em periódico.“À medida que o campo evolui”, acrescentam os autores, “manter o foco nos resultados dos pacientes e, ao mesmo tempo, abordar as questões de privacidade, segurança e acessibilidade será fundamental para uma adoção sustentável e um impacto significativo na prestação de cuidados de saúde”. Em uma seção sobre as direções futuras da IA agêntica na área da saúde, Patel e coautores observam que a trajetória atual “indica uma mudança em direção a sistemas mais integrados, eficientes e centrados no paciente”. Eles consideram o campo em desenvolvimento fazendo seis previsões granulares, como segue. Direções futuras da IA… 1. Tecnologias emergentes: Avanços técnicos. Agentes de IA de próxima geração utilizarão arquiteturas de ponta, como transformadores e modelos generativos de IA, para atingir níveis sem precedentes de precisão e eficiência, escrevem Patel e colegas. Por exemplo, modelos híbridos que combinam aprendizado por reforço e aprendizado supervisionado “devem se destacar em cenários de tomada de decisão em tempo real, como atendimento de emergência e assistência cirúrgica”. Inovações de integração, incluindo computação de ponta e aprendizado federado, permitirão que sistemas de IA processem dados localmente, aumentando a privacidade e reduzindo a latência, acrescentam os autores. Mais: ‘Melhorias de desempenho em unidades de processamento gráfico e unidades de processamento tensorial acelerarão ainda mais os recursos de treinamento e inferência de IA, permitindo implantações mais rápidas e escaláveis.’ 2. Tecnologias emergentes: aplicações em saúde. Tecnologias emergentes introduzirão novas aplicações clínicas, como diagnósticos moleculares baseados em IA, permitindo a detecção precisa de doenças genéticas raras, preveem os autores. “A evolução do fluxo de trabalho se concentrará na automatização de processos complexos, como o planejamento de tratamento multidisciplinar, reduzindo a carga de trabalho dos médicos”, escrevem, antes de acrescentar: ‘Avanços no atendimento ao paciente são esperados por meio da medicina personalizada, impulsionada por agentes de IA capazes de adaptar terapias com base em dados genéticos e de estilo de vida.’ 3. Direções de pesquisa: Pesquisa técnica. Pesquisas futuras priorizarão o desenvolvimento de algoritmos mais robustos e interpretáveis. Modelos de IA Explicável (XAI) “abordarão a natureza de caixa-preta dos sistemas atuais, aumentando a confiança dos médicos e facilitando a aprovação regulatória”, escrevem os autores. “Os avanços na arquitetura de sistemas se concentrarão em designs modulares e plug-and-play para simplificar a integração com os sistemas de TI de saúde existentes.” Saiba mais: ‘A pesquisa sobre métodos de integração enfatizará APIs padronizadas e estruturas de interoperabilidade para melhorar o fluxo de dados entre sistemas distintos.’ 4. Direções de pesquisa: Pesquisa em saúde. A validação clínica continuará sendo um foco crítico, com ensaios clínicos randomizados em larga escala avaliando a eficácia e a segurança das intervenções de IA, esperam os autores. Enquanto isso, os estudos de implementação “investigarão as melhores práticas para a implantação de agentes de IA em diversos ambientes de saúde, de clínicas rurais a hospitais urbanos”. ‘A pesquisa de resultados explorará os impactos de longo prazo na saúde do paciente, na eficiência do provedor e nos custos da assistência médica.’ 5. Roteiro de implementação: Caminho de desenvolvimento. As metas de curto prazo (1 a 2 anos) incluem o refinamento dos modelos existentes para maior precisão e confiabilidade, apontam Patel e coautores. “As principais iniciativas se concentrarão na integração da IA em áreas de alto impacto, como radiologia e patologia. Os objetivos de médio prazo (3 a 5 anos) enfatizam a expansão das aplicações da IA em domínios complexos, como medicina personalizada e análise preditiva.” ‘A visão de longo prazo (mais de 5 anos) visa criar agentes de IA de última geração que se integrem perfeitamente a todas as facetas da assistência médica.’ 6. Roteiro de implementação: Indicadores de sucesso. “O sucesso será medido por resultados clínicos, como redução de erros de diagnóstico e atrasos no tratamento”, observam Patel et al. “Métricas operacionais, incluindo eficiência do fluxo de trabalho e economia de custos, também servirão como parâmetros críticos.” ‘A satisfação do usuário entre provedores de saúde e pacientes será fundamental para avaliar o impacto real dos agentes de IA.’ Reportagem completa em https://www.scmp.com/tech/big-tech/article/3309817/new-alibaba-method-slashes-costs-training-ai-search-88?module=perpetual_scroll_1_RM&pgtype=articlehttps://www.cnnbrasil.com.br/tecnologia/google-passa-a-usar-ia-para-identificar-sites-fraudulentos-no-chrome/