- quanto mais agradável / bajulador for o seu modelo, mais viciante será para os utilizadores
- 99% das pessoas não se importam com o que é um "modelo de raciocínio" e estão felizes a usar gpt 4o
- os humanos são muito fáceis de eliminar: há um subreddit de 13.000 pessoas onde as pessoas falam publicamente sobre seus relacionamentos românticos com IA ( as pessoas ficaram noivas )
- investir / manter um portfólio de empresas de doomer ai teria gerado um desempenho superior de 47% YTD (h/t leopold fund)
- estamos longe da AGI / ASI
- A qualidade dos modelos gerais está a estabilizar (isto não inclui funções determinísticas como "codificação" que continuarão a melhorar linearmente)
- vamos precisar de uma nova arquitetura de modelo para alcançar a AGI
- para fazer modelos mais inteligentes, o pós-treinamento importa muito mais do que o pré-treinamento
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
estas são agora as opiniões consensuais em ia:
- quanto mais agradável / bajulador for o seu modelo, mais viciante será para os utilizadores
- 99% das pessoas não se importam com o que é um "modelo de raciocínio" e estão felizes a usar gpt 4o
- os humanos são muito fáceis de eliminar: há um subreddit de 13.000 pessoas onde as pessoas falam publicamente sobre seus relacionamentos românticos com IA ( as pessoas ficaram noivas )
- investir / manter um portfólio de empresas de doomer ai teria gerado um desempenho superior de 47% YTD (h/t leopold fund)
- estamos longe da AGI / ASI
- A qualidade dos modelos gerais está a estabilizar (isto não inclui funções determinísticas como "codificação" que continuarão a melhorar linearmente)
- vamos precisar de uma nova arquitetura de modelo para alcançar a AGI
- para fazer modelos mais inteligentes, o pós-treinamento importa muito mais do que o pré-treinamento
o que eu perdi?