- cuanto más complaciente / servil sea tu modelo, más adictivo será para los usuarios
- El 99% de las personas no se preocupa por lo que es un "modelo de razonamiento" y están felices usando gpt 4o
- los humanos son muy fáciles de eliminar de un solo golpe: hay un subreddit de 13,000 personas donde la gente habla públicamente sobre sus relaciones románticas con la IA (las personas se han comprometido)
- invertir / tener una bolsa de empresas de inteligencia artificial doomer te habría generado un rendimiento superior del 47% hasta la fecha (h/t leopold fund)
- estamos lejos de la AGI / ASI
- La calidad de los modelos generales está estancándose ( esto no incluye funciones deterministas como "código" que seguirán mejorando linealmente )
- vamos a necesitar una nueva arquitectura de modelo para alcanzar la AGI
- para hacer modelos más inteligentes, el post-entrenamiento importa mucho más que el pre-entrenamiento
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
estas son ahora las opiniones consensuadas en ai:
- cuanto más complaciente / servil sea tu modelo, más adictivo será para los usuarios
- El 99% de las personas no se preocupa por lo que es un "modelo de razonamiento" y están felices usando gpt 4o
- los humanos son muy fáciles de eliminar de un solo golpe: hay un subreddit de 13,000 personas donde la gente habla públicamente sobre sus relaciones románticas con la IA (las personas se han comprometido)
- invertir / tener una bolsa de empresas de inteligencia artificial doomer te habría generado un rendimiento superior del 47% hasta la fecha (h/t leopold fund)
- estamos lejos de la AGI / ASI
- La calidad de los modelos generales está estancándose ( esto no incluye funciones deterministas como "código" que seguirán mejorando linealmente )
- vamos a necesitar una nueva arquitectura de modelo para alcanzar la AGI
- para hacer modelos más inteligentes, el post-entrenamiento importa mucho más que el pre-entrenamiento
¿Qué me perdí?