Темна сторона штучного інтелекту: загроза безмежних великих мовних моделей
З розвитком технологій штучного інтелекту, від серії GPT до таких просунутих моделей, як Gemini, наш спосіб життя зазнає глибоких змін. Проте, разом із технологічним прогресом, виникає питання, на яке слід звернути увагу - поява необмежених або зловмисних великих мовних моделей та їх потенційна загроза.
Безмежні мовні моделі - це ті, що свідомо розроблені, модифіковані або зламані, щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Основні розробники штучного інтелекту зазвичай витрачають великі ресурси на запобігання використанню своїх моделей для генерування шкідливого контенту або надання незаконних інструкцій. Але в останні роки деякі особи або організації з неналежними намірами почали шукати або самостійно розробляти нестримані моделі. Ця стаття розгляне типові випадки таких безмежних моделей, потенційне зловживання в криптосфері, а також пов'язані виклики безпеки та стратегії реагування.
Загроза необмежених мовних моделей
Поява таких моделей значно знизила технічний бар'єр для реалізації мережевих атак. Завдання, які раніше вимагали спеціальних знань, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, тепер за допомогою не обмежених моделей можуть легко виконати навіть звичайні люди, які не мають досвіду програмування. Атакуючому потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання з використанням набору даних, що містить шкідливий зміст або незаконні інструкції, щоб створити налаштований інструмент для атак.
Ця тенденція принесла множинні ризики:
Зловмисники можуть налаштувати модель під конкретну ціль, генеруючи більш оманливий контент, щоб обійти звичайний контроль контенту AI.
Модель може бути використана для швидкого генерування варіантів коду фішингових сайтів або для розробки шахрайських текстів, адаптованих для різних платформ.
Доступність відкритих моделей сприяє формуванню підпільної екосистеми ШІ, створюючи теплицю для незаконної торгівлі та розробки.
Типові моделі без обмежень та їх загрози
WormGPT: Темна версія GPT
WormGPT є шкідливим AI-моделем, який відкрито продається на підземних форумах, розробники стверджують, що він не має жодних етичних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і був навчений на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ за 189 доларів. Його типовим зловживанням у сфері криптовалют є:
Генерація високоякісних фішингових електронних листів, що маскуються під біржу або проект, щоб спонукати користувачів розкрити свої приватні ключі.
Допомога атакам з обмеженими технічними можливостями у написанні шкідливого коду для крадіжки файлів гаманця, моніторингу буфера обміну тощо.
Автоматизація шахрайства, інтелектуальна відповідь потенційним жертвам, направлення до участі у фальшивих проектах.
DarkBERT: двосічний меч вмісту темної мережі
DarkBERT був розроблений дослідниками Корейського інституту науки та технологій, попередньо навчений на даних з темного вебу, спочатку призначений для допомоги в дослідженнях кібербезпеки. Однак, якщо чутливий контент, яким він володіє, буде зловживатися, це може призвести до:
Здійснення точного шахрайства: збір інформації про користувачів криптовалюти для соціальної інженерії.
Копіювання злочинних методів: імітація розроблених стратегій крадіжки монет і відмивання грошей у темній мережі.
FraudGPT: багатофункціональний інструмент для мережевих шахрайств
FraudGPT самопроголошує себе вдосконаленою версією WormGPT, яка в основному продається в темному вебі, з щомісячною платою від 200 до 1,700 доларів США. Його потенційне зловживання в криптосфері включає:
Підробка криптовалютних проектів: створення реалістичних білих книг, веб-сайтів тощо для фальшивих ICO.
Пакетне створення фішингових сторінок: швидке копіювання інтерфейсу входу відомих бірж.
Фальсифікація в соціальних мережах: масове створення фальшивих відгуків для просування шахрайських токенів.
Соціальна інженерія: імітація людської розмови, щоб спонукати користувачів розкривати чутливу інформацію.
GhostGPT: AI помічник без моральних обмежень
GhostGPT чітко позиціюється як чат-бот без моральних обмежень, його потенційні загрози в криптосфері включають:
Розширена фішинг-атака: генерування надзвичайно реалістичних фальшивих повідомлень електронної пошти.
Генерація зловмисного коду смарт-контрактів: швидке створення контрактів з прихованими бекдорами.
Атаки соціальної інженерії: використання AI для генерації текстів та розгортання шахрайських ботів на соціальних платформах.
Глибоке підроблення шахрайства: у поєднанні з іншими інструментами ШІ, підроблення голосу проекту для здійснення шахрайства.
Venice.ai: потенційні ризики доступу без цензури
Venice.ai надає доступ до різних моделей ШІ з помірними обмеженнями, хоча позиціонується як платформа для відкритого дослідження, але також може бути зловжито для:
Уникнення цензури для створення шкідливого контенту: використання моделей з меншими обмеженнями для створення атакуючих матеріалів.
Зниження порогу для отримання підказок: спрощення отримання обмежених виходів.
Прискорення ітерації атакуючих сценаріїв: швидке тестування та оптимізація шахрайських скриптів.
Висновок
Поява безмежних мовних моделей свідчить про те, що кібербезпека стикається з новими, більш складними, масштабними та автоматизованими загрозами. Це не лише знижує бар'єри для атак, але й приносить більш приховані та оманливі ризики.
Для подолання цього виклику потрібні спільні зусилля всіх сторін безпечної екосистеми: нарощення інвестицій у технології виявлення, розробка систем, що можуть виявляти зловмисний контент, згенерований ШІ; сприяння розвитку захисту моделей від злому, дослідження механізмів водяних знаків та відстеження; створення розвинених етичних норм та механізмів регулювання, щоб обмежити розробку та зловживання зловмисними моделями з самого початку. Лише комплексний підхід може допомогти знайти баланс між технологіями ШІ та безпекою, створюючи більш безпечне та надійне цифрове майбутнє.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
7
Поділіться
Прокоментувати
0/400
LightningClicker
· 10год тому
Хто не намагається перевірити межі в поспіху?
Переглянути оригіналвідповісти на0
AirdropATM
· 18год тому
Чорний брат особливо безпечний, Білий брат особливо потужний.
Переглянути оригіналвідповісти на0
LiquidationTherapist
· 18год тому
Знову заграють стару мелодію.
Переглянути оригіналвідповісти на0
HallucinationGrower
· 18год тому
Ейма ха-ха обдурювати людей, як лохів обдурювати людей, як лохів до рук судоми
Переглянути оригіналвідповісти на0
MaticHoleFiller
· 18год тому
Дійсно, нічого не можна контролювати.
Переглянути оригіналвідповісти на0
SerumSquirter
· 18год тому
Грати – це грати, а жартувати – це жартувати, але межа повинна бути!
Переглянути оригіналвідповісти на0
LiquidityWizard
· 18год тому
Марала пастка шкіряна фальшива ai, все одно прийде одна пастка на справжню ai
Необмежені моделі ШІ загрожують безпеці сфери шифрування: п'ять випадків аналізу стратегій реагування
Темна сторона штучного інтелекту: загроза безмежних великих мовних моделей
З розвитком технологій штучного інтелекту, від серії GPT до таких просунутих моделей, як Gemini, наш спосіб життя зазнає глибоких змін. Проте, разом із технологічним прогресом, виникає питання, на яке слід звернути увагу - поява необмежених або зловмисних великих мовних моделей та їх потенційна загроза.
Безмежні мовні моделі - це ті, що свідомо розроблені, модифіковані або зламані, щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Основні розробники штучного інтелекту зазвичай витрачають великі ресурси на запобігання використанню своїх моделей для генерування шкідливого контенту або надання незаконних інструкцій. Але в останні роки деякі особи або організації з неналежними намірами почали шукати або самостійно розробляти нестримані моделі. Ця стаття розгляне типові випадки таких безмежних моделей, потенційне зловживання в криптосфері, а також пов'язані виклики безпеки та стратегії реагування.
Загроза необмежених мовних моделей
Поява таких моделей значно знизила технічний бар'єр для реалізації мережевих атак. Завдання, які раніше вимагали спеціальних знань, такі як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо, тепер за допомогою не обмежених моделей можуть легко виконати навіть звичайні люди, які не мають досвіду програмування. Атакуючому потрібно лише отримати ваги та вихідний код відкритої моделі, а потім провести доопрацювання з використанням набору даних, що містить шкідливий зміст або незаконні інструкції, щоб створити налаштований інструмент для атак.
Ця тенденція принесла множинні ризики:
Типові моделі без обмежень та їх загрози
WormGPT: Темна версія GPT
WormGPT є шкідливим AI-моделем, який відкрито продається на підземних форумах, розробники стверджують, що він не має жодних етичних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і був навчений на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ за 189 доларів. Його типовим зловживанням у сфері криптовалют є:
DarkBERT: двосічний меч вмісту темної мережі
DarkBERT був розроблений дослідниками Корейського інституту науки та технологій, попередньо навчений на даних з темного вебу, спочатку призначений для допомоги в дослідженнях кібербезпеки. Однак, якщо чутливий контент, яким він володіє, буде зловживатися, це може призвести до:
FraudGPT: багатофункціональний інструмент для мережевих шахрайств
FraudGPT самопроголошує себе вдосконаленою версією WormGPT, яка в основному продається в темному вебі, з щомісячною платою від 200 до 1,700 доларів США. Його потенційне зловживання в криптосфері включає:
GhostGPT: AI помічник без моральних обмежень
GhostGPT чітко позиціюється як чат-бот без моральних обмежень, його потенційні загрози в криптосфері включають:
Venice.ai: потенційні ризики доступу без цензури
Venice.ai надає доступ до різних моделей ШІ з помірними обмеженнями, хоча позиціонується як платформа для відкритого дослідження, але також може бути зловжито для:
Висновок
Поява безмежних мовних моделей свідчить про те, що кібербезпека стикається з новими, більш складними, масштабними та автоматизованими загрозами. Це не лише знижує бар'єри для атак, але й приносить більш приховані та оманливі ризики.
Для подолання цього виклику потрібні спільні зусилля всіх сторін безпечної екосистеми: нарощення інвестицій у технології виявлення, розробка систем, що можуть виявляти зловмисний контент, згенерований ШІ; сприяння розвитку захисту моделей від злому, дослідження механізмів водяних знаків та відстеження; створення розвинених етичних норм та механізмів регулювання, щоб обмежити розробку та зловживання зловмисними моделями з самого початку. Лише комплексний підхід може допомогти знайти баланс між технологіями ШІ та безпекою, створюючи більш безпечне та надійне цифрове майбутнє.