稳健,是 Gate 持续增长的核心动力。
真正的成长,不是顺风顺水,而是在市场低迷时依然坚定前行。我们或许能预判牛熊市的大致节奏,但绝无法精准预测它们何时到来。特别是在熊市周期,才真正考验一家交易所的实力。
Gate 今天发布了2025年第二季度的报告。作为内部人,看到这些数据我也挺惊喜的——用户规模突破3000万,现货交易量逆势环比增长14%,成为前十交易所中唯一实现双位数增长的平台,并且登顶全球第二大交易所;合约交易量屡创新高,全球化战略稳步推进。
更重要的是,稳健并不等于守成,而是在面临严峻市场的同时,还能持续创造新的增长空间。
欢迎阅读完整报告:https://www.gate.com/zh/announcements/article/46117
Mira网络启动:打造AI信任层 解决偏见与幻觉问题
AI的信任层:Mira网络如何解决AI的幻觉和偏见问题
近日,一个名为Mira的公共测试网络正式启动,其目标是为人工智能构建一个可信赖的基础。这引发了一个重要问题:为什么AI需要被信任?Mira又是如何解决这个复杂问题的?
在讨论AI时,人们往往更关注其强大的能力。然而,一个有趣但常被忽视的问题是AI存在"幻觉"或偏见。所谓AI的"幻觉",简单来说就是AI有时会"信口开河",看似言之凿凿地说出一些不实信息。例如,当被问及月亮为什么是粉色时,AI可能会提供一系列看似合理但实际上毫无根据的解释。
AI出现这种"幻觉"或偏见,与当前的一些AI技术路径有关。比如,生成式AI通过预测"最可能"的内容来实现连贯和合理的输出,但这种方法有时难以验证真伪。此外,训练数据本身可能包含错误、偏见甚至虚构内容,这些都会影响AI的输出质量。换句话说,AI学习的是人类的语言模式,而非事实本身。
目前的概率生成机制和数据驱动模式几乎不可避免地会导致AI产生幻觉。这种带有偏见或幻觉的输出,如果仅限于普通知识或娱乐内容,可能暂时不会造成严重后果。但如果发生在医疗、法律、航空、金融等高度严谨的领域,就可能产生重大影响。因此,解决AI的幻觉和偏见问题成为了AI发展过程中的核心挑战之一。
目前,已有一些方法试图解决这个问题。有的采用检索增强生成技术,将AI与实时数据库结合,优先输出已验证的事实。有的引入人类反馈,通过人工标注和监督来纠正模型的错误。
Mira项目正是致力于解决AI偏见和幻觉问题的一项尝试。它试图构建AI的信任层,提高AI的可靠性。那么,Mira是如何实现这一目标的呢?
Mira的核心理念是通过多个AI模型的共识来验证AI输出。它本质上是一个验证网络,利用多个AI模型的集体智慧来评估AI输出的可靠性。更重要的是,Mira采用去中心化的共识机制进行验证。
这种去中心化的共识验证是加密领域的强项,同时也充分利用了多模型协同的优势,通过集体验证模式来减少偏见和幻觉。在验证架构方面,Mira协议支持将复杂内容转换为可独立验证的声明。这些声明需要节点运营商参与验证,为了确保节点运营商的诚实性,Mira采用加密经济激励和惩罚机制。
Mira的网络架构包括内容转换、分布式验证和共识机制。首先,系统将候选内容分解成不同的可验证声明,这些声明被分发给节点进行验证,然后汇总结果达成共识。为保护客户隐私,声明对会以随机分片的方式分发给不同节点。
节点运营商负责运行验证器模型,处理声明并提交验证结果。他们参与验证的动力来自于可以获得收益。这些收益源于为客户创造的价值,即降低AI的错误率。在医疗、法律、航空、金融等领域,降低错误率可以产生巨大价值,因此客户愿意为此付费。为防止节点运营商投机取巧,持续偏离共识的节点会被减少质押代币。
总的来说,Mira为实现AI的可靠性提供了一种新的解决思路。它在多AI模型的基础上构建了去中心化的共识验证网络,为客户的AI服务带来更高的可靠性,降低AI偏见和幻觉,以满足更高准确度和精确率的需求。同时,它还为网络参与者带来收益。简而言之,Mira正在尝试构建AI的信任层,这将有助于推动AI应用的深入发展。
目前,用户可以通过Klok应用参与Mira公共测试网。Klok是一个基于Mira的LLM聊天应用,用户可以体验经过验证的AI输出,并有机会赚取Mira积分。虽然积分的未来用途尚未公布,但这无疑为用户提供了一个亲身体验AI验证过程的机会。