Um ano após o lançamento de sua plataforma de IA, a Apple pouco fará na WWDC para mostrar que está alcançando líderes como OpenAI e Google. Veja também: o macOS mais recente ganha seu novo tema Califórnia; um resumo dos motivos pelos quais a empresa está migrando para o sistema de nomenclatura iOS 26 e macOS 26 ; e detalhes sobre o aplicativo dedicado a jogos da Apple .
Semana passada no Power On : o acordo de Jony Ive com a OpenAI aumenta a pressão sobre a Apple para encontrar seu próximo produto inovador.
Os iniciantes

Há um ano, a Apple Inc. revelou sua tão aguardada entrada no universo da IA generativa. Com a Apple Intelligence, a empresa assumiu o papel de uma retardatária atenciosa que investiu tempo para acertar na IA. Wall Street aderiu à ideia, e os consumidores ficaram curiosos. A mensagem era clara: a Apple podia estar atrasada, mas não por muito tempo.
Em agosto, quando os desenvolvedores tiveram acesso à primeira versão beta do Apple Intelligence, essa narrativa começou a ruir. Ficou óbvio que o produto era mais uma estratégia de marca do que um avanço. O sistema que a Apple entregou não tinha o poder e a inovação dos sistemas da OpenAI, do Google, da Alphabet Inc., e de outros. Era reativo, esquecível e atrasado (o software chegou a atrasar o lançamento do iPhone 16 por um mês e meio).
Nos meses seguintes, ficou evidente que recursos como Ferramentas de Escrita, Genmoji e Notificações Prioritárias, embora úteis, não correspondiam às inovações dos concorrentes da Apple. E a nova assistente de voz Siri, que deveria estar no centro da Inteligência Apple, foi adiada por tempo indeterminado após enfrentar uma série de problemas de engenharia e testes.
Com a aproximação do aniversário de um ano da Apple Intelligence, a empresa se encontra em uma situação difícil. Precisa gerar algum entusiasmo sobre IA na Worldwide Developers Conference, em 9 de junho, mas tem pouco a acrescentar à conversa. Nas últimas semanas, a OpenAI firmou uma parceria de sucesso com o ex-chefe de design da Apple, enquanto o Google fez grandes avanços em seu evento I/O.
As recentes iniciativas do Google intensificaram a concorrência e consolidaram a empresa como uma potência em IA. A empresa impressionou desenvolvedores, consumidores e investidores ao criar novas maneiras de criar vídeos e pesquisar na internet. E está permitindo que seus grandes modelos de linguagem acessem dados pessoais — algo que a Apple vem tentando fazer com o recurso Contexto Pessoal para a Siri, que estava atrasado.
A Apple precisa de um retorno. Mas isso provavelmente não acontecerá na WWDC deste ano. Pessoas dentro da empresa acreditam que a conferência pode ser uma decepção do ponto de vista da IA. Outros familiarizados com os anúncios planejados pela empresa temem que eles possam tornar as deficiências da Apple ainda mais evidentes.
Há também indícios de que o evento será em menor escala do que as duas últimas WWDCs (o Vision Pro foi anunciado em 2023 e o Apple Intelligence foi apresentado em 2024). A empresa quer compensar isso no próximo ano, na WWDC 2026, quando espera poder tentar convencer os consumidores de que é uma inovadora em IA. Mas isso é arriscado. Tirar um ano sabático é difícil quando seus concorrentes estão se movendo na velocidade da luz.
O anúncio mais significativo sobre IA na WWDC será a abertura dos Modelos Fundamentais da Apple para desenvolvedores terceirizados. Essa mudança permitirá que os criadores de aplicativos explorem a tecnologia da empresa para dispositivos, que ela utiliza atualmente para lidar com tarefas simples, como resumo de texto. Estamos falando de grandes modelos de linguagem com cerca de 3 bilhões de parâmetros — uma medida de sua complexidade e capacidade de aprendizado —, muito menos do que os baseados em nuvem usados pela OpenAI e até pela própria Apple para seus recursos internos de IA em nuvem.
Os desenvolvedores poderão usar os modelos básicos para criar recursos personalizados para aplicativos, marcando um passo importante (mas gradual) na jornada de IA da Apple. Mantendo o assunto da IA, a empresa também apresentará um novo modo de gerenciamento de energia , proporá uma reinicialização do aplicativo Tradutor (agora integrado aos AirPods e Siri) e, discretamente, renomeará vários recursos existentes em aplicativos como Safari e Fotos como “alimentados por IA”.
Além disso, a empresa está renomeando seus sistemas operacionais com um sistema baseado em anos (mais sobre isso abaixo) — mais um sinal de que a empresa está investindo em branding para convencer os usuários de que é uma empresa de IA e desviar a conversa da tecnologia em si. Esse também foi o caso no ano passado, quando a empresa apresentou o Apple Intelligence como “IA para o resto de nós”, uma referência ao lançamento muito mais histórico do Mac em 1984.
A Apple espera ter uma história melhor para contar nos próximos anos, quando mais recursos estão previstos para serem lançados. Os projetos em andamento incluem:
- LLM Siri, uma reformulação ousada da arquitetura da assistente que deve, eventualmente, torná-la mais parecida com o modo de voz do ChatGPT. A esperança é finalmente dar à Siri uma interface de conversação.
- Uma versão reformulada do aplicativo Atalhos, que hoje permite aos usuários criar ações como iniciar determinados recursos em aplicativos ou reproduzir uma playlist específica. A nova versão permitirá que os consumidores criem essas ações usando modelos de inteligência da Apple. (Isso estava planejado há muito tempo para 2025, mas atrasos podem adiá-lo para 2026.)
- O serviço médico de IA da Apple , codinome Mulberry, e um app de saúde reformulado. Este projeto ainda está em desenvolvimento, mas provavelmente não será exibido este ano. Atualmente, está previsto para ser lançado em 2026 como parte de uma atualização de primavera do iOS 26.
- Um chatbot concorrente do ChatGPT que pode extrair dados da web aberta, que alguns funcionários apelidaram de “Conhecimento”. O projeto inicial está sendo liderado por Robby Walker, que teve a Siri removida de seu comando há algumas semanas (foi transferida para o criador do Vision Pro, Mike Rockwell). Funcionários familiarizados com o trabalho dizem que ele já foi afetado por alguns dos mesmos problemas que atrasaram a reformulação da Siri.
A Apple sempre pode apresentar uma prévia de tecnologias futuras na WWDC, mas será mais cautelosa em relação a isso este ano. Quando a empresa exibiu o Apple Intelligence em 2024, grande parte da tecnologia ainda não estava pronta. Perdeu um pouco da credibilidade que agora espera reconquistar. Como relatei em minha recente matéria no Big Take sobre os esforços da Apple em IA, a empresa está priorizando o anúncio de recursos que tem certeza de que serão lançados no outono.
Isso não quer dizer que a Apple não tenha feito progressos recentes em IA. Internamente, a empresa possui uma ampla gama de modelos de complexidade variada. Versões com 3 bilhões, 7 bilhões, 33 bilhões e 150 bilhões de parâmetros estão em uso ativo. O modelo de 150 bilhões de parâmetros, que depende da nuvem como o OpenAI e o Google, é muito mais poderoso do que a tecnologia da Apple no dispositivo e capaz de raciocínio mais detalhado.
Benchmarks internos mostraram que este modelo se aproxima da qualidade dos lançamentos recentes do ChatGPT. Mas a empresa tem evitado usar a tecnologia para oferecer seu próprio chatbot devido a preocupações com alucinações e divergências filosóficas entre os executivos da empresa.
Embora a mudança esteja em andamento, ela não acontecerá na conferência de desenvolvedores deste ano. Ainda assim, os funcionários da Apple já podem usar os modelos da Apple para alimentar um chatbot e até comparar os resultados com os do ChatGPT, Gemini e outras plataformas. Tudo isso é feito por meio de uma ferramenta interna de testes e benchmarking chamada Playground, mas nenhum lançamento público está previsto para o momento.
Ainda assim, os desenvolvedores verão a IA se integrar mais profundamente às ferramentas de desenvolvimento da Apple, incluindo aquelas para testes de interface do usuário. E, em um desenvolvimento que certamente agradará muitos desenvolvedores, o SwiftUI, um conjunto de frameworks e ferramentas da Apple para a criação de interfaces de usuário de aplicativos, finalmente terá um editor de texto avançado integrado.
Ainda estamos aguardando o Swift Assist, um serviço que permite completar e criar código usando IA. Ele foi anunciado no ano passado, mas ainda não foi lançado. (A Apple, por sua vez, lançou uma ferramenta de completação de código com tecnologia Anthropic no Xcode para funcionários.) A empresa deve divulgar uma atualização sobre o Swift Assist no evento.
A Apple aproveitou encontros anteriores de desenvolvedores para revelar novos hardwares importantes, mas isso provavelmente também não está nos planos desta vez. Não há novos dispositivos importantes prontos para serem lançados, e o próximo ciclo de hardware — que incluirá iPhones e Apple Watches — está previsto para o outono.
Dito isso, a apresentação da Apple na WWDC deve ter seus floreios habituais. Espere que a equipe de marketing da empresa faça um discurso de abertura altamente refinado, com uma narrativa que se apoia fortemente no valor da integração do ecossistema, design e segurança do sistema.
O foco no básico, destacado pelos novos sistemas operacionais simplificados da Apple, também deve ser empolgante para desenvolvedores e fãs. A interface de usuário atualizada certamente será o anúncio de destaque, mesmo que corra o risco de transmitir a mensagem de que a Apple está presa ao passado . A empresa estará investindo pesado nos paradigmas de tela sensível ao toque e interface de apontar e clicar, que já duram décadas, enquanto o restante da indústria migrou para a IA.
A grande questão é por quanto tempo a Apple conseguirá manter uma abordagem lenta em relação à inteligência artificial. A empresa pretende mostrar progresso real no próximo ano, mas a corrida pela IA parece acelerar a cada mês. É evidente que a Apple precisa se mover mais rápido, fazer testes beta maiores e lançar recursos mais ousados — ou corre o risco de, eventualmente, ser ultrapassada por seus rivais.