- чим більш приємна / лукава ваша модель, тим більше вона стає залежною для користувачів
- 99% людей не цікавляться, що таке "модель міркування" і задоволені використанням gpt 4o
- люди дуже легко вразити одним пострілом: є субреддіт з 13,000 учасників, де люди публічно говорять про свої романтичні стосунки з ШІ (люди заручилися )
- інвестування / довгострокове вкладення в пакет компаній doomer ai принесло б вам 47% перевищення з початку року (h/t leopold fund)
- ми ще далекі від AGI / ASI
- Якість загальних моделей стабілізується (це не включає детерміновані функції, такі як "кодування", які продовжать покращуватися лінійно)
- нам потрібна нова архітектура моделі, щоб досягти AGI
- щоб створити розумніші моделі, пост-тренування має набагато більше значення, ніж пре-тренування
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
тепер це консенсусні погляди в ІІ:
- чим більш приємна / лукава ваша модель, тим більше вона стає залежною для користувачів
- 99% людей не цікавляться, що таке "модель міркування" і задоволені використанням gpt 4o
- люди дуже легко вразити одним пострілом: є субреддіт з 13,000 учасників, де люди публічно говорять про свої романтичні стосунки з ШІ (люди заручилися )
- інвестування / довгострокове вкладення в пакет компаній doomer ai принесло б вам 47% перевищення з початку року (h/t leopold fund)
- ми ще далекі від AGI / ASI
- Якість загальних моделей стабілізується (це не включає детерміновані функції, такі як "кодування", які продовжать покращуватися лінійно)
- нам потрібна нова архітектура моделі, щоб досягти AGI
- щоб створити розумніші моделі, пост-тренування має набагато більше значення, ніж пре-тренування
що я пропустив?