"LLM"検索結果

OpenSeaの共同創業者が設立したAI企業OpenRouterが4000万ドルの資金調達を行い、a16zなどがリード投資家となり、評価額は5億ドルとなった。

Gate News bot のメッセージ、OpenSea の前共同創業者が率いる OpenRouter が 4000 万ドルのシードラウンド及び A ラウンドの資金調達を完了し、大規模な言語モデル集約プラットフォームの開発を加速することを目指しています。この資金調達は Andreessen Horowitz(a16z)と Menlo Ventures が主導し、セコイアキャピタルと著名な業界のエンジェル投資家が参加しました。『ウォール・ストリート・ジャーナル』が引用した情報筋によると、同社の現在の評価額は 5 億ドルです。
もっと

前OpenSeaの共同創設者が設立したAIプラットフォームOpenRouterが4000万ドルのAラウンド資金調達を完了し、a16zなどが主導しました。

AIモデル市場プラットフォームOpenRouterは、近日4000万ドルの資金調達を完了し、評価額は約5億ドルとなりました。資金は製品開発および企業サポートの拡大に使用されます。ローンチ以来、100万人以上の開発者を引き付けており、年推論支出は急速に上昇しており、顧客はスタートアップから多国籍企業まで多岐にわたります。
もっと

研究:ChatGPTなどの大規模言語モデルに長期間依存することは認知能力を損なう可能性がある

ChainCatcher のメッセージ、マサチューセッツ工科大学、ウェルズリー大学、マサチューセッツ美術大学の研究チームが最新の発見をしました。長期的に ChatGPT のような大規模言語モデル(LLM)に依存することは、認知能力を損なう可能性があるということです。研究によると、AIによる執筆を行った参加者の脳内のアルファ波の接続数は、独立して考える人の半分(42 対 79)であり、83.3%が自分の文章内容を正確に引用できませんでした。研究者はこの現象を「認知負債」と呼び、短期的には思考の負担を軽減するものの、長期的には批判的思考や創造性の低下をもたらすと述べています。
もっと

$FLOCKはqwenとの戦略的コラボレーションを発表した後、52%以上の増加を記録しました。

Gate.io ニュース
もっと
  • 1

Moonshot が大規模言語モデルを発表 ($LLM)

公式ニュースによると、MoonshotはLarge Language Model($LLM)に上場しており、現在の時価総額は9,470万ドル、24時間の取引量は1.542です
もっと
  • 1

MoonshotがSolanaチェーン上でAIコンセプトのMemeトークンLLMをローンチしました

MoonshotListingは、Solanaチェーン上でのAIコンセプトのミーム通貨LLMの上場を検出しました。時価総額は暫定的に9600万ドルで、24時間の変動率は9.7%です。LLMは、ai16zのロゴからインスピレーションを得ています。BlockBeatsは、ミーム通貨には実際のユースケースがほとんどなく、価格の変動が大きいため、投資には注意が必要です。
もっと
  • 1
  • 2

Dar Open Networkは、2つのAIフレームワーク、DeAIマルチエージェントフレームワークとaiNFTを発表することを発表しました

Dar Open Networkは、DeAIマルチエージェントフレームワークとAI非代替フレームワークの2つのAIフレームワークの立ち上げを発表しました。 DeAIマルチエージェントフレームワークは、開発者がコラボレーティブAIエージェントを構築、デプロイ、オーケストレーションするためのプラットフォームであり、AI Non-Alternativeity Ownersは、非代替オーナーがAIエージェントをカスタマイズし、ユーザーと動的に対話することで、その可能性を解き放つことができる革新的なツールです。
もっと

Initia: Renaが登場し、330万ドルのPre-Seedラウンドの資金調達を獲得し、TrustEEデータアプリチェーンを立ち上げました

InitiaのRollupインターオペラビリティプロトコル、Renaが発表され、330万ドルのPre-Seedラウンドの資金調達を獲得しました。Renaは、TrustEEデータアプリチェーンを使用して、開発者が任意のオンチェーンブロックで検証可能でプライバシー保護され、スケーラブルなAIアプリケーションを構築できるように支援します。Renaは、ユーザーに検証可能で所有権を持つAIを提供し、分散型金融、ゲーム/ソーシャルアプリケーション、マルチモーダルLLMなどの領域のアプリケーション開発を推進することを目指しています。
もっと

a16zパートナー:LLMタイプの製品は、検索ビジネスを変革する可能性がある

a16zの一般パートナーであるAndrew Chenは、ソーシャルメディア上で、OpenAIのChatGPTの規模は驚異的であり、ビジネスの潜在力があるかどうかを検討し、また、個人当たりの検索回数や単一表示収益、広告収益化後のパフォーマンスなどについて議論しました。Firefoxブラウザのようなユーザーベースの製品はピーク時に年間約10億ドルの収益を上げています。ChatGPTが無料で使用される場合、月間アクティブユーザーが大幅に増加する可能性があります。また、大規模言語モデル(LLM)製品は、検索業界を変革する可能性があります。
もっと
  • 3
  • 1

JPモルガン・チェース・アンド・カンパニー(JPMorgan Chase & Co.)は、アナリスト向けのAIツールを社内でローンチした

BlockBeats 情報によると、7 月 26 日、Cointelegraph によると、投資銀行の巨人である JP モルガンは、ChatGPT に類似した生成型人工知能製品の内部版である LLM Suite を展開していると報じられています。このツールは、アナリストが文章を執筆し、アイデアを生成し、文書をまとめるのを支援するために主に使用されます。JP モルガンは、LLM Suite は「ChatGPT に類似した製品」であり、他の機密な財務情報を処理する内部システムと連携して「一般的な生産性」を向上させることができると述べています。
もっと
Odaily Planet Daily News Lightning Labs は、開発者がビットコインとライトニング ネットワークを人工知能アプリケーションにシームレスに統合できるように設計された新しい人工知能ビットコイン ツールを発表しました。スイートには LLM エージェント BitcoinTools が含まれており、開発者はビットコイン残高を保持できる AI エージェントを作成できます、Lightning Network 上でビットコインを送受信し、Lightning Network デーモンノードと対話します。 さらに、このリリースには、Lightning Node Connect をサポートし、動的な API エンドポイント価格を提供する Aperture リバース プロキシ サーバーが含まれています。これらのツールは、AI インフラストラクチャのアクセシビリティと機能を強化します。 (ブロック)
Babbitt News、6月9日、朝鮮日報の報道によると、サムスンが社内向けに独自のAIラージ言語モデル(LLM)を本格的に開発していることが確認されたとのことだが、この製品はChatGPTに類似しており、6月から開発されており、サムスン研究所が主導。関係者によると、サムスンのGPUコンピューティングリソースのほぼすべてが大規模モデルのトレーニングに投資されており、LLMの最初のバージョンの開発は2カ月以内に完了する予定だという。現時点では、サムスンはこの大型モデルを文書要約、ソフトウェア開発、言語翻訳に使用する予定で、消費者に製品を提供するかどうかはまだ決定していない。
  • 2

アップルの研究者:主流のAIモデルは依然としてAGIの期待される推論レベルに達していない

Appleの研究者は6月に発表された「The Illusion of Thinking」と題する論文で、主要なAI (AGI)モデルはまだ推論に困難を抱えており、その結果、一般的なAI (AGI)の開発が結果であると指摘しています まだまだ道のりは長いです。 記事では、OpenAIのChatGPTやAnthropicのClaudeなど、(LLM)主流のAI大規模言語モデルの最新のアップデートには、大規模な推論モデルが(LRM)含まれていることを指摘していますが、その基本的な特徴は、 拡張された機能と制限は「まだ完全には理解されていません」。 現在の評価は、主に確立された数学とコーディングのベンチマークに焦点を当てており、「最終回答の精度を強調しています」。 しかし、研究者たちは、この評価ではAIモデルの推論能力に関する洞察が得られず、汎用人工知能がわずか数年で達成されるという期待とはまったく対照的であると述べています。
もっと
  • 1

AIオンチェーン取引エンジンBrianが終了を発表、創業者がVCの投機トークンへの偏りを批判

2023年ETHPragueハッカソン出発のAI意図認識プロジェクトBrianは市場優位性の喪失と資金調達の問題により終了を発表し、VCがTGEやプロモーションに過度に注目し、実際の進捗を無視していると批判した。チームはWeb3専用モデルとトークンを発売する計画を立てていたが、業界の投機とコスト問題がプロジェクトの失敗を招いた。
もっと

エージェンシー:2024年には、世界のトップ10のIC設計会社の総収益は前年比49%増加し、NVIDIAはその割合の半分を占めるでしょう

2024年には、世界のトップ10のIC設計企業の総収益は約2,498億米ドル、年間成長率は49%になり、そのうちNVIDIAは125%も成長します。 2025年の見通しでは、高度な半導体製造プロセスがAIコンピューティングパワーの成長を牽引し、大規模言語モデルが出現し続け、エッジAIデバイスが半導体成長ドライバーの次の波になることを示しています。
もっと

SCIHUBコミュニティで開発された科学AIエージェントのアーキテクチャであるSCAIは、研究者により正確で信頼性の高いツールを提供することを目指しています。

BlockBeatsニュース、1月13日、公式情報によると、SCIHUBコミュニティは新しいAI AgentsアーキテクチャSCAI(SCientific AI)を開発しました。これは、研究者により正確で信頼性の高いツールを提供することを目的としています。SCAIの目標は、科学的な問題に回答する際の「幻覚」現象(Hallucination)を解決することで、AIを実現することです。
もっと
  • 4
  • 2

Redditユーザーは、ChatGPTが過去のメッセージを推論して会話を開始すると述べています

OpenAIは、よりスマートなChatGPTの大規模な言語モデルを導入し、推論能力と「考えてから答える」能力を付与することを発表しました。このモデルは、ユーザーに初めて学校に行った体験について尋ねられた場合、前の会話からユーザーの状況を推測し、それが新しいアップグレードの機能の1つであることを示すことができます。新しいモデルは、より高速な応答時間と独立した深い研究能力を備えていると予想されています。
もっと
  • 8
  • 2
6月5日の36クリプトン社の報道によると、AIデータ会社「インテジャー・インテリジェンス」は最近数千万件のプレAラウンドの資金調達を完了し、イーシャン・キャピタルが独占的な資金調達アドバイザーを務めている。今回の資金調達は主にインテリジェントデータエンジニアリングプラットフォーム(ABAVAプラットフォーム)の反復アップグレードに使用され、新しいABAVAプラットフォームはAIの大型モデルと小型モデルを統合し、効率的な自動データアノテーションを実現します。さらに、整数インテリジェンスは、RLHF (ヒューマン フィードバック強化学習) データ サービス機能も統合して、大規模言語モデル (LLM) の開発と反復のためのソリューションを提供します。
6月5日の36クリプトン社の報道によると、AIデータ会社「インテジャー・インテリジェンス」は最近数千万件のプレAラウンドの資金調達を完了し、イーシャン・キャピタルが独占的な資金調達アドバイザーを務めている。今回の資金調達は主にインテリジェントデータエンジニアリングプラットフォーム(ABAVAプラットフォーム)の反復アップグレードに使用され、新しいABAVAプラットフォームはAIの大型モデルと小型モデルを統合し、効率的な自動データアノテーションを実現します。さらに、整数インテリジェンスは、RLHF (ヒューマン フィードバック強化学習) データ サービス機能も統合して、大規模言語モデル (LLM) の開発と反復のためのソリューションを提供します。

Gaiaのコア開発者であるHarish Kotra氏は、ETHDenver 2025サミットに参加し、オープンソースのLLMについての彼の見解を共有しました

Gaiaは、安全で検閲に強く、収益化可能なAIプロキシサービスを提供することを目的とした分散型Webプロジェクトです。 そのコア開発者であるHarish Kotra氏は、ETHDenver 2025でオープンソースのLLMを実行するというトピックを共有しました。 GaiaNetは、個人や企業が管理するエッジコンピューティングノード上に構築されており、プライバシーを保護しながら、すべての人のノウハウとスキルを融合するように設計されています。
もっと

Vitalik: AI予測市場によって、Xコミュニティのノートはより速くなる

ETH坊の共同創設者は、人工知能と予測市場技術によって、ソーシャルメディアプラットフォーム上のコミュニティノートの作成速度を向上させることができると述べました。コミュニティノートは、コミュニティが誤解を招く可能性のある投稿に背景情報を追加する機能です。予測市場を通じて、人々は大規模な人工知能言語モデルとロボットを使用して、投稿がコミュニティをフォローする価値があるかどうかを判断することができます。
もっと
  • 1

真格基金は、オープンソースAIプロジェクトvLLMに寄付を提供することを発表しました

Odaily星球日报のニュースによると、真格基金はオープンソースAIプロジェクトvLLMに寄付を行うことを発表しました。真格基金は、この寄付がAI技術の普及を推進し、より多くの人々が恩恵を受けることを目的としていると述べています。 vLLMは、カリフォルニア大学バークレー校の3人のチームによって開発されたオープンソースの大規模モデル推論アクセラレーションフレームワークであり、Mistral、Llamaを含む30以上の最新のオープンソースをサポートしています。
もっと
金十データ、5月21日のニュースによると、レノボグループは、Qualcomm Snapdragon XEliteを搭載した次世代Copilot+PCであるLenovo Yoga Slim 7xとLenovo ThinkPad T14s Gen 6を発表しました。これら2つの新しいSnapdragon XEliteプロセッサを搭載したAIPCには、12コアのOryon CPU、Adreno GPU、および専用のHexagon NPUが搭載されています。MicrosoftとCopilot+の最新の強化機能により、ユーザーはオフラインでも大規模な言語モデル(LLM)の機能を使用することができます。
Interface News の 6 月 27 日の報道によると、データベース会社 MongoDB は、開発者による生成 AI の使用と新しいアプリケーションの開発を加速するために Google Cloud と協力すると発表しました。開発者は、MongoDB Atlas と Google Cloud Vertex AI Large Language Model (LLM) との統合を利用して、ソフトウェア開発を加速できます。
  • 2
IT Houseは本日、AIモデルのブラインドヒープ量が実際には必ずしも優れているわけではなく、トレーニングデータの品質に大きく依存すると述べた記事を発表し、Microsoftは最近、13億個のパラメータを備えた言語モデルphi-1をリリースしたと述べた。 、「教科書レベル」の高品質なデータセットトレーニングを使用し、「実際の効果は1,000億パラメータのGPT 3.5よりも優れている」と言われています。このモデルは Transformer アーキテクチャに基づいており、Microsoft チームは Web からの「教科書レベルの」データと GPT-3.5 で処理された「論理的に厳密なコンテンツ」、および 8 つの Nvidia A100 GPU を使用して、わずか 4 時間でトレーニングを完了しました。日。 Microsoft チームは、モデルのパラメーターの数を増やすよりも、モデルのトレーニング データセットの品質を向上させることで、モデルの精度と効率が向上する可能性があると述べたため、高品質のデータを使用して phi-1 モデルをトレーニングしました。 。テストでは、phi-1 のスコアは 50.6% に達し、1,750 億個のパラメータを持つ GPT-3.5 (47%) よりも優れていました。 Microsoft はまた、phi-1 は次は HuggingFace でオープンソース化される予定であると述べており、Microsoft が小規模な LLM を開発するのはこれが初めてではなく、以前は GPT-4 合成データを使用してトレーニングされた 130 億パラメータの Orca を作成していました。パフォーマンスも ChatGPT より優れています。
証券時報によると、6月20日、金山事務所は2022年の年次業績説明会を開催した。 AI関連製品の開発について、同社の鄒濤会長は、AIはKingsoft Officeの重要な製品戦略の1つであると述べた。現在、同社は「二本足で歩く」ことを選択しており、まずAIGCおよびLLMに関連する技術サービスプロバイダーと協力し、彼らの技術的権限強化を通じて製品の研究開発を実行することを選択しますが、同時に彼らはまた、いくつかの優れたスタートアップ企業とのコンタクトを継続しています。さらに、「WPSAI」関連機能も順次提供開始され、同社の全製品ラインが本格的に強化されることが期待される。
  • 1
ビジネスコリアによると、韓国の情報筋によると、サムスン電子の半導体事業を担当するデバイスソリューション(DS)部門は、GPT-3.5以上の大規模言語モデル(LLM)を独自に開発しているという。効率。早ければ今年12月にも基本サービスを開始し、来年2月には企業の知識やデータを含む専門的な検索サービスを提供する予定だという。

ソーシャルブロックチェーンCYBERは、暗号化AIモデルCyber.AIをリリースする予定です。

ソーシャルブロックチェーンCyberは、Cyber.AIという暗号化AIモデルを導入する予定です。このモデルは、数百万のXポストとアカウントの分析、20万以上のプロジェクトの暗号化データを組み合わせて、スマートAIエージェントにより良いサポートを提供することができます。Cyber.AIはまた、@elizaOSaiとの協力により、開発者がより専門的な暗号化の知識ベースにアクセスできるようにしています。このモデルは、暗号化アシスタント製品とネイティブの暗号化基本モデルの構築を行っており、より正確な暗号化のクエリと情報を提供することができます。
もっと
  • 2
  • 1

オロラ開発チームは、DeepSeek AIエージェントを使用してスマートトレード管理を実現しました

金色财经によると、Allora開発チームはDeepSeekをAIエージェントとして使用してLLM取引の評価を行い、Allora NetworkをインタラクティブプラットフォームとしてHyperliquidで実現しました。
もっと

あるアドレスは初期段階で63,000ドル相当のLLMを購入し、現在のポジションの価値は130万ドルに上昇しました

BlockBeatsのニュース、1月9日、Arkhamの監視によると、DxjmHで始まる特定のアドレスは、LLMが取引所に上場してから3時間以内に6.3万ドル相当のLLMを購入しました。現在のポジションの価値は130に上昇しました。
もっと
  • 6
  • 3

あるトレーダーが2300枚のLLMを買い、50万ドル以上の利益を得ました

Odailyプラネットデイリーニュースによると、Onchain Lensの監視によると、あるトレーダーが2300枚のLLMを買い、50を超える利益を得ました。
もっと
  • 2
  • 1

あるトレーダーは、LLMを早期に購入して4時間で1,887倍の収益を得ました。

BlockBeats ニュースによると、1月8日、Onchain Lensの監視によると、あるトレーダーがLLMを早期に購入し、4時間で50万ドルを稼ぎました。このアドレスは以前にPumpFunで1.37 SOL(約269ドル)で2300万枚のLLMを購入しました。コイン価格が急上昇した後、このアドレスはLLMを2594 SOL(約50.7万ドル)で全ポジション決済しました。利益は1887
もっと
  • 4
  • 2
金十データ6月12日、グローバル市場調査機関TrendForceによると、第1四半期に消費者向け端末は伝統的な淡季に入り、サプライチェーンには緊急の受注が散発的に発生しているものの、ほとんどが個々の顧客の在庫補充行動であり、エネルギーなどの要因により、AIサーバーのみがグローバルCSP巨大企業の大規模な投資競争と大規模な言語モデル(LLM)の導入の潮流の中で台頭し、第1四半期のサプライチェーンを支える唯一の光明点となる。これらの要因に基づき、第1四半期の世界トップ10のウェハファブの売上高は前四半期比4.3%減の292億ドルとなった。
6月14日のFinancial AP通信の報道によると、バンク・オブ・アメリカ証券はAMDが最近最新のAI GPUチップ「MI300 X」を発表し、米国からAIチップ市場が拡大すると予測するというレポートを発表した。今年は 300 億ドル、2027 年には 1,500 億ドルに達します。しかし、同社は新しいGPU製品に参加する商用顧客については言及していないため、同行はAMDに対して「中立」を保っている。 AMDは次の四半期までAIチップのサンプリングを開始しないため、AMDは依然としてNvidiaに大きく遅れをとっています。タイミング的には、AMDが5nmベースのGPUアクセラレータで安定し始める頃に、Nvidiaは次世代の3nmベースでLLMに最適化されたBlackwellアーキテクチャGPUを発売し、AI市場ですでにかなりのリードをさらに拡大する可能性がある。

特定のアドレスがLLMを2425万枚“売る”と、300万ドルの利益を逃す

Odaily星球日報によると、Onchain Lensによると、あるアドレスが昨日、9.17枚のSOLで2425万枚のLLMを購入しましたが、購入からわずか2分後にこれらのトークンを損切りし、8.27枚のSOLを得ました。現在、これらのトークンの価値は300を超えています。
もっと
  • 1
  • 1

LLMの時価総額が1.4億ドルを突破し、1時間の上昇率は43.49%です

Odaily星球日报讯 GMGNデータによると、LLMは0.14 USDTを超え、現在0.1403 USDTで、1時間の増加率は43.49%で、時価総額は一時的に14.1億米ドルとなっています。 OdailyはユーザーにMemeを提供します
もっと
  • 1

LLMポジションのトップ5の巨大な鯨が現在、利益が67,000ドルに浮上しています

Odaily星球日報によると、オンチェーン分析者のAiは、LLMがTOP5のクジラを所有し、昨夜0.01949ドルでLLM 949万枚を購入し、現在67万ドルの利益を上げています(コストは18.5万ドルで、リターンは
もっと

あるトレーダーは、「損切り」1063万枚のLLMを行い、150万ドルの潜在利益を逃しました。

BlockBeatsニュース、1月9日、Lookonchainによると、あるトレーダーが1725ドルで売却した1063万枚のLLMは、現在150万ドル以上の価値があります。昨日、このトレーダーは14枚のSOL(2767ドル)で1063万枚のLLMを購入しました。しかし、購入後すぐに価格が下落し、そのため彼は8.74枚のSOL(1725ドル)で全てを売却しました。
もっと
  • 3
  • 1

データ:LLMの時価総額が1億ドルを突破しました

ChainCatcherのニュース、GMGNデータによると、LLMポンプは0.1ドルを突破し、現在0.125ドルで取引されており、1時間の上昇率は30%です。時価総額は1.26ドルとなっています。
もっと
  • 2

スマートマネーは19時間前に2376万LLMを購入し、現在の浮動利益は289倍です

Odaily星球日報記实によると、The Data Nerd監督によると、19 時間前、誰もがちょう相場の FdvYZ が23.76 SOL (約1,700 ディール) を使い買うことを表明した。誰もが2376 万枚のLLMを購入した。現在の値上昇は136 万ディールで、ROIは289 倍です。 彼は1500万枚のLLMをウォレットに移動しました
もっと
  • 3
  • 2

AI memeコインLLMの時価総額が短時間で1億ドルを突破し、24時間の取引高が3.3億ドルを突破しました。

BlockBeats Newsは、1月9日、GMGNの市場情報によると、AIミームコインLLMが22時間発行され、市場価値は短期間で1億ドルを超え、現在は9980万ドルと見積もられ、24時間の売上高は3.3を超えています。
もっと
  • 3

仮想通貨とAIの企業であるFraction AIは、Spartan GroupとSymbolic Capitalが共同で主導する600万ドルのプレシード資金調達ラウンドを完了しました

PANewsは12月19日、The Blockによると、分散型データアノテーションに焦点を当てた暗号および人工知能のスタートアップであるFraction AIが、Spartan GroupとSymbolic Capitalが共同で主導し、他の投資家にはBorderless Capital、Anagram、Foresightが含まれる600万ドルのプレシード資金調達を完了したと報告しました ベンチャーズとカラタゲ。 また、Polygonの共同創業者であるSandeep Nailwal氏やNEAR Protocolの共同創業者であるIllia Polosukhin氏などのエンジェル投資家も参加し、アドバイザーを務めました。 端数
もっと

SolanaエコシステムAIプロジェクトCAI | CharacterXは、企業向けAIインフラストラクチャCAIの導入を発表します

Solana生態のAIプロジェクトCAI | CharacterXは、エンタープライズ向けのAIインフラソリューションCAIを提供します。COOによると、CAIはすでに複数の企業との初期契約を締結し、月間収入は50万ドルに達しています。このプロジェクトはStanford Blockchain Acceleratorと数百万ドルのシードラウンド投資を受けています。
もっと

Anthropic CEO:AIの発展はまだ鈍化していません

Odaily星球日报、AnthropicのCEOであるDario Amodeiは、大規模な言語モデルの改善速度は減速しないと述べました。最近の報道では、同社、Google、OpenAIが近日中に導入する予定のLLMは、初期モデルと比較して性能が大幅に向上するとは限らないと報じられています。 今月初めに報告されたところによると、OpenAIの最新のフラッグシップモデルであるOrionのパフォーマンスは改善されていないようです。(The
もっと

Aptos FoundationはAI企業と提携し、プログラミング言語ツール「Move」を構築しました

Aptos財団はFLock.ioと協力して、ブロックチェーンのカスタムプログラミング言語であるMoveを使用したコーディングをより簡単にする人工知能ツールを発表しました。 FLock.ioは、Aptosネットワークに特化したMoveの調整に特化した専用の大規模言語モデルを開発しました。 初期のテストでは、FLock.ioのLLMはMove特有のコードを生成する能力に優れており、コードの精度と可読性が大幅に向上しました。
もっと

AOは「AI on AO」計画を発表し、オンチェーンのオープンソース大規模言語モデルをリリースしました。

Golden Financeは、AOエコシステムが「AI on AO」イニシアチブをリリースし、(LLMだけでなく)あらゆるAIモデルをオンチェーンにすることを目的としたオンチェーン オープンソースの大規模言語モデル(LLM)を立ち上げたと報告しました。 Apus NetworkをベースにしたArweaveの恒久的なオンチェーンストレージは、分散型でトラストレスなGPUネットワークを構築するために使用され、AIトレーニングと推論のための信頼性が高く、効率的で低コストのコンピューティングパワーを提供することに取り組んでいます。 AO上のAIデータをArDrive経由でArweaveにアップロード可能
もっと

Arweave AOの過去一週間の預金は1.58億ドルを超えました

金色财经によると、Arweaveを基盤とするAIアプリケーション計算プロトコルAOは、公正な販売後1週間で1億5800万ドル以上の預金を集めました。 AOは、Arweave永続的データストレージレイヤー上に構築された新しいプロトコルであり、分散型計算モデルによる並列アプリケーション実行を実現することができます。また、人工知能アプリケーションをオンチェーンで実行することができ、大規模言語モデル(LLM)をスマートコントラクト内で実行することもできます。
もっと
7月7日のPANewsニュースによると、The Blockによると、Lightning Labsは新しい人工知能ビットコインツールを立ち上げたという。このツールは、開発者がビットコインとライトニング ネットワークを AI アプリケーションにシームレスに統合できるように設計されています。このスイートには LLM Agent BitcoinTools が含まれており、開発者はこれを使用して、ビットコイン残高を保持し、ライトニング ネットワーク上でビットコインを送受信し、ライトニング ネットワーク デーモン ノードと対話できる AI エージェントを作成できます。さらに、このリリースには、Lightning Node Connect をサポートし、動的な API エンドポイント価格を提供する Aperture Reverse Proxy Server が含まれています。これらのツールは、AI インフラストラクチャのアクセシビリティと機能を強化します。
Odaily Planet Daily News ビットコイン採掘会社ハイブ・ブロックチェーンは金曜日のアナリストとの決算会見で、顧客が同社のデータセンターで大規模な言語人工知能モデルをトレーニングできるようになると、OpenAIのChatGPTなどの競合他社と比較して優れていると主張した。プライバシー。 同社の CEO 兼社長である Aydin Kilic 氏は、「企業は現在、公開 LLM (Large Language Model) を持つ OpenAI のような企業に機密の顧客データをアップロードしたくないことに気づいています。私たちは、Hive でプライバシーを提供したいと考えています。 Hive クラウドを使用すると、企業はサービス契約を結び、データとプライバシーを所有しながら、当社の GPU で AI コンピューティング ワークロードを実行できます。」 ハイブの株価は金曜日、ナスダック市場で2%近く上昇した。 (コインデスク)
IT House の 6 月 25 日のレポートによると、開発者の Iván Martínez Toro 氏は最近、ユーザーがインターネット接続なしで自分のドキュメントに基づいて質問できる PrivateGPT オープン ソース モデルを立ち上げました。報告によると、PrivateGPT オープン ソース モデルは家庭用デバイス上でローカルに実行でき、gpt4 と呼ばれるオープン ソースの大規模言語モデル (LLM) は実行前にすべてダウンロードする必要があります。次に、モデルがすべてのデータを取り込むように、すべての関連ファイルをディレクトリに配置するようにユーザーに指示します。 LLM をトレーニングした後、ユーザーはモデルに任意の質問をすることができ、モデルは提供されたドキュメントをコンテキストとして使用して答えます。 PrivateGPT は 58,000 ワードを超えるワードを取り込むことができますが、現在セットアップには大量のローカル コンピューティング リソース (ハイエンド CPU を推奨) が必要です。 Toro 氏は、PrivateGPT は現在概念実証 (PoC) 段階にあり、ChatGPT に似た大規模なモデルを完全にローカルで作成できることを少なくとも証明していると述べ、この PoC の実際の製品への変換の可能性により、企業がパーソナライゼーション、セキュリティ、プライバシーにアクセスし、ChatGPT で生産性を向上させます。