Negócios

‘Estamos sob pressão para o IPO?’: Aravind Srinivas da Perplexity quebra o silêncio sobre financiamento, rumores de produto

Após uma onda de especulações sobre as atualizações do produto e os planos futuros da Perplexity, o CEO Aravind Srinivas foi para X para esclarecer as coisas. Abordando as perguntas sobre a saúde financeira da empresa, as opções de modelos e as motivações por trás das mudanças recentes de interface, Srinivas esclareceu uma coisa na frente: a startup da IA ​​não está ficando sem dinheiro, nem está correndo para um IPO.

“Estamos ficando sem financiamento e enfrentando pressão de mercado para o IPO? Não. Temos todo o financiamento que levantamos e nossa receita está crescendo apenas”, postou Srinivas. “O objetivo por trás do modo automático é melhorar o produto, não economizar custos.”

Ele acrescentou: “Se alguma coisa, aprendi que é melhor se comunicar de maneira mais transparente para evitar conclusões incorretas. RE IPO: não temos planos de iPoing antes de 2028”.

A declaração veio quando os usuários questionaram a lógica por trás do modo automático recém -introduzido e dos seletores de modelos ausentes. Srinivas explicou que o modo automático tem como objetivo reduzir a desordem e simplificar a experiência: “O usuário não precisa aprender muito para usar um produto”. O modo automático permite que a IA determine a complexidade de uma consulta – de respostas rápidas à pesquisa profunda – sem sobrecarregar o usuário.

Sobre inconsistências na disponibilidade do modelo, Srinivas observou que nem todos os modelos se adequam a todos os modos. “O3-mini e Deepseek R1 não fazem sentido no contexto da pesquisa profissional”, escreveu ele. “Quanto à pesquisa profunda, é uma combinação de vários modelos que funcionam juntos … não há absolutamente nada para controlar lá”.

Ele acrescentou que os seletores de modelos estão evoluindo: “O Pro é personalizável. O Pro persistirá nos acompanhamentos. O raciocínio não, mas pretendemos mesclar pro e raciocinar um único modo”.

Quanto à pesquisa profunda, revertendo o automóvel para acompanhamentos, a equipe descobriu que os tempos de resposta lenta estavam desencorajando o envolvimento: “15-20% das perguntas profundas de pesquisa não são vistas de todo o BC, eles demoram muito.”

Finalmente, no GPT-4.5, Srinivas disse que é simplesmente muito lento: “A velocidade de decodificação para o GPT-4.5 é de apenas 11 tokens/s … até que possamos alcançar velocidades semelhantes ao que os usuários esperam, teremos que adiar”.

Source link

Artigos Relacionados

Botão Voltar ao Topo