13 липня з нізвідки народився шкідливий інструмент ШІ WormGPT, який автоматично згенерував серію фішингових листів, змусивши всіх панікувати.
Бачачи, що одна хвиля не плоска, інша хвиля піднімається знову.
Згідно з даними платформи аналізу безпеки Netenrich, інструмент ШІ під назвою FraudGPT нещодавно циркулював у темній мережі та використовувався злочинцями для написання фішингових електронних листів і розробки шкідливого програмного забезпечення.
На основі GPT-3, потужна функція, велика загроза, проста робота
Як ми всі знаємо, традиційні інструменти злому вимагають від користувачів відповідних навичок програмування, щоб краще виконувати мережеві атаки.
Для порівняння FraudGPT видається простішим, прямим, ефективним і «більш загрозливим».
Незалежно від того, чи є ви професійним розробником чи новачком, вам потрібно лише за допомогою простого методу запитання та відповіді, щоб досягти злому.
За словами Netenrich, FraudGPT працює, створюючи електронні листи з високим ступенем упевненості, що одержувачів обманом змусять натиснути надане шкідливе посилання. Його основні функції:
Створити сторінку фішингового сайту. FraudGPT може генерувати справжні фішингові електронні листи, текстові повідомлення або веб-сайти, щоб оманою змусити користувачів розкрити конфіденційну інформацію, таку як облікові дані для входу, фінансові дані або особисті дані;
Знайдіть найбільш вразливі цілі. Чат-боти можуть імітувати людські розмови, зміцнюючи довіру з користувачами, які нічого не підозрюють, змушуючи їх несвідомо розкривати конфіденційну інформацію або виконувати шкідливі дії;
** Створення шкідливих програм, які неможливо виявити. ** FraudGPT може створювати оманливі повідомлення, які обманом спонукають користувачів натискати шкідливі посилання або завантажувати шкідливі вкладення, заражаючи їхні пристрої шкідливим програмним забезпеченням;
** Пишіть шахрайські текстові повідомлення та електронні листи. **Чат-боти на базі штучного інтелекту можуть допомогти хакерам створювати фальшиві документи, рахунки-фактури або платіжні запити, в результаті чого окремі особи та компанії стають жертвами фінансових шахраїв.
Повідомляється, що FraudGPT надається розробником під назвою «CanadianKingpin».
В основному він базується на великомасштабній мовній моделі GPT-3, яка може генерувати логічний і фактичний шахрайський текст після навчання. Після того, як злочинці платять за це, FraudGPT може допомогти їм в успішному фішингу та шахрайстві.
Зачищення темної мережі за ціною 200 доларів США на місяць
Дійсно, FraudGPT — не перший випадок, коли інструменти штучного інтелекту знижують бар’єр доступу для кіберзлочинців.
Навіть якщо такі постачальники штучного інтелекту, як Claude, ChatGPT, Bard тощо, вживуть певних заходів, щоб запобігти використанню їхніх технологій у поганих цілях, із розвитком моделі з відкритим кодом злочинцям буде важко стримувати зловмисну поведінку.
На початку липня також привернув увагу «WormGPT», який був розроблений на основі великої мовної моделі з відкритим кодом GPT-J і використовував велику кількість шкідливого коду для навчання та тонкої настройки.
Повідомляється, що WormGPT добре використовує код Python для здійснення різноманітних мережевих атак, таких як створення троянських програм, шкідливих посилань, імітація веб-сайтів тощо.
Але для порівняння, окрім потужніших функцій FraudGPT, ціна набагато вища, ніж WormGPT, який стягує 60 євро на місяць,** вартість місячної підписки становить 200 доларів США, що в 10 разів перевищує ціну ChatGPT Plus . **
Ви можете отримати знижку, якщо купите підписку на три або шість місяців, і вартість одного року доступу становить 1700 доларів.
Наразі FraudGPT охопив багато підпільних ринків даркнету, таких як WHM, Empire, AlphaBay, World, Versus і Torrez, із сукупним досягненням понад 3000 транзакцій.
**Як користувачі можуть цьому запобігти, коли рівень злочинності знижений? **
Безсумнівно, чи то WormGPT, чи FraudGPT, такі загрозливі інструменти штучного інтелекту «розширюють можливості» для просування кіберзлочинності та шахрайства.
Платформа аналітики безпеки Netenrich заявила: «Ця технологія знизить бар’єр для проникнення фішингових електронних листів та інших видів шахрайства. Згодом злочинці знайдуть більше способів використання інструментів, які ми винаходимо, щоб посилити свою злочинну спроможність».
Коли злі сторони інструментів штучного інтелекту повністю продемонстровані в поєднанні з «низьким порогом» кібератак, особливо важливо посилити стратегії захисту.
З цією метою The Economic Times of India окреслила деякі ключові кроки, які можуть зробити окремі особи та компанії, щоб убезпечити себе від загрози FraudGPT та подібних інструментів ШІ.
** Будьте пильні щодо онлайн-спілкування. **Не натискайте навмання посилання на незнайомі веб-сайти, електронні листи та не встановлюйте невідоме програмне забезпечення. Водночас випадкові електронні листи, які вимагають перевірки, містять конфіденційну інформацію чи фінансові операції, слід перевіряти офіційними каналами.
**Будьте в курсі заходів безпеки мережі. **Регулярно оновлюйте програмне забезпечення безпеки, встановлюйте патчі та використовуйте надійну антивірусну програму для захисту від потенційних загроз. У той же час, також необхідно розуміти найновіші практики мережевої безпеки та підвищувати рівень захисту від мережевих атак.
**Будьте обережні з невідомими посиланнями та вкладеннями. **Не натискайте на посилання та не відкривайте вкладення з невідомих джерел. FraudGPT може генерувати реалістичні URL-адреси фішингових веб-сайтів, тому вкрай важливо перевірити особу відправника, перш ніж натискати будь-яке посилання.
**Освіта та навчання співробітників. **Для бізнесу навчання співробітників найкращим практикам кібербезпеки має вирішальне значення. Переконайтеся, що співробітники знають про потенційні загрози та знають, як визначити підозрілу активність. Якщо співробітники стикаються з будь-якими підозрілими повідомленнями, вони повинні негайно повідомити про це в ІТ-відділ.
Посилання на посилання:
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
ШІ-«шахрайство» можна реалізувати за 200 доларів на місяць? Хакерська версія ChatGPT без технічного порогу охоплює темну мережу
Джерело: CSDN
Автор: Чжу Кесінь
13 липня з нізвідки народився шкідливий інструмент ШІ WormGPT, який автоматично згенерував серію фішингових листів, змусивши всіх панікувати.
Бачачи, що одна хвиля не плоска, інша хвиля піднімається знову.
Згідно з даними платформи аналізу безпеки Netenrich, інструмент ШІ під назвою FraudGPT нещодавно циркулював у темній мережі та використовувався злочинцями для написання фішингових електронних листів і розробки шкідливого програмного забезпечення.
На основі GPT-3, потужна функція, велика загроза, проста робота
Як ми всі знаємо, традиційні інструменти злому вимагають від користувачів відповідних навичок програмування, щоб краще виконувати мережеві атаки.
Для порівняння FraudGPT видається простішим, прямим, ефективним і «більш загрозливим».
Незалежно від того, чи є ви професійним розробником чи новачком, вам потрібно лише за допомогою простого методу запитання та відповіді, щоб досягти злому.
За словами Netenrich, FraudGPT працює, створюючи електронні листи з високим ступенем упевненості, що одержувачів обманом змусять натиснути надане шкідливе посилання. Його основні функції:
Повідомляється, що FraudGPT надається розробником під назвою «CanadianKingpin».
В основному він базується на великомасштабній мовній моделі GPT-3, яка може генерувати логічний і фактичний шахрайський текст після навчання. Після того, як злочинці платять за це, FraudGPT може допомогти їм в успішному фішингу та шахрайстві.
Зачищення темної мережі за ціною 200 доларів США на місяць
Дійсно, FraudGPT — не перший випадок, коли інструменти штучного інтелекту знижують бар’єр доступу для кіберзлочинців.
Навіть якщо такі постачальники штучного інтелекту, як Claude, ChatGPT, Bard тощо, вживуть певних заходів, щоб запобігти використанню їхніх технологій у поганих цілях, із розвитком моделі з відкритим кодом злочинцям буде важко стримувати зловмисну поведінку.
На початку липня також привернув увагу «WormGPT», який був розроблений на основі великої мовної моделі з відкритим кодом GPT-J і використовував велику кількість шкідливого коду для навчання та тонкої настройки.
Повідомляється, що WormGPT добре використовує код Python для здійснення різноманітних мережевих атак, таких як створення троянських програм, шкідливих посилань, імітація веб-сайтів тощо.
Але для порівняння, окрім потужніших функцій FraudGPT, ціна набагато вища, ніж WormGPT, який стягує 60 євро на місяць,** вартість місячної підписки становить 200 доларів США, що в 10 разів перевищує ціну ChatGPT Plus . **
Ви можете отримати знижку, якщо купите підписку на три або шість місяців, і вартість одного року доступу становить 1700 доларів.
Наразі FraudGPT охопив багато підпільних ринків даркнету, таких як WHM, Empire, AlphaBay, World, Versus і Torrez, із сукупним досягненням понад 3000 транзакцій.
**Як користувачі можуть цьому запобігти, коли рівень злочинності знижений? **
Безсумнівно, чи то WormGPT, чи FraudGPT, такі загрозливі інструменти штучного інтелекту «розширюють можливості» для просування кіберзлочинності та шахрайства.
Платформа аналітики безпеки Netenrich заявила: «Ця технологія знизить бар’єр для проникнення фішингових електронних листів та інших видів шахрайства. Згодом злочинці знайдуть більше способів використання інструментів, які ми винаходимо, щоб посилити свою злочинну спроможність».
Коли злі сторони інструментів штучного інтелекту повністю продемонстровані в поєднанні з «низьким порогом» кібератак, особливо важливо посилити стратегії захисту.
З цією метою The Economic Times of India окреслила деякі ключові кроки, які можуть зробити окремі особи та компанії, щоб убезпечити себе від загрози FraudGPT та подібних інструментів ШІ.
Посилання на посилання: