Fingerprinting в антифроде

Попробуем взглянуть на fingerprinting не как на «фичу в продукте», а как на инструмент, который меняет саму логику первой линии защиты. Сегодня пароль и одноразовый код — это только тонкий слой краски на фасаде, тогда как настоящая опора безопасности прячется глубже — в данных об устройстве, сети и поведении пользователя. Почему пароля уже недостаточно Современный фрод давно научился проходить через классические KYC и логины: покупаются документы, подделываются селфи, в ход идут слитые базы логинов и паролей. Сверху это выглядит как нормальный пользователь: валидный паспорт, корректный селфи‑матч, OTP приходит на телефон. Но есть одна вещь, которую подделывать и «масштабировать» куда сложнее — устройство и его цифровой след. Именно поэтому во всех современных antifraud‑стэках появился отдельный слой: device fingerprinting и device intelligence, которые смотрят не столько на личность, сколько на то, как и откуда эта личность к вам пришла. Цифровой след: что мы вообще видим Если упростить, браузерный/девайсный fingerprint — это слепок конфигурации: тип устройства, ОС, версия браузера, язык, разрешение экрана, включены ли cookie, какие шрифты и плагины доступны, как ведёт себя JavaScript и HTML5‑API и т.д. Из этих сотен атрибутов формируется устойчивый идентификатор устройства, который живёт дольше, чем сессия или куки, и переживает инкогнито‑режим и очистку истории. Поверх этого добавляются сетевые признаки: IP, геолокация, соответствие часового пояса, наличие VPN или прокси, нахождение IP в блэклистах, тип соединения (мобильное, Wi‑Fi, корпоративная сеть). В итоге у antifraud‑движка появляется не просто «user_id», а полноценный профиль устройства и среды, в которой оно к вам приходит. Без призыва к действию https://t.me/fraud_ops

https://habr.com/ru/articles/1003726/

#fraud #fraudмониторинг #fraudscore #fraud_protection #frauddetection #fraudgpt

Fraud Ops

Управление командой • Anti-fraud • Лайфстайл

Telegram
Hmmm #FraudGPT, #SpamGPT, #WormGPT.... be careful with #email, now more than ever.

Hakerzy zaprzęgli AI do pracy. Raport Cisco Talos ostrzega przed nową generacją cyberataków

Cyberprzestępcy coraz częściej i skuteczniej wykorzystują duże modele językowe (LLM), by automatyzować i udoskonalać swoje ataki, ostrzega Cisco Talos.

Z najnowszego raportu zespołu Cisco Talos, zajmującego się badaniami nad cyberbezpieczeństwem, wynika, że hakerzy sięgają nie tylko po legalne usługi AI, ale także tworzą i modyfikują własne narzędzia, które pozwalają na masowe generowanie zaawansowanego złośliwego oprogramowania i wiarygodnych kampanii phishingowych.

Najbardziej wyspecjalizowanym zagrożeniem są modele językowe tworzone od podstaw przez samych cyberprzestępców i aktywnie promowane przez nich w darknecie. Narzędzia takie jak WormGPT, FraudGPT, DarkGPT czy GhostGPT potrafią samodzielnie generować złośliwy kod, w tym ransomware, trojany zdalnego dostępu (RAT) czy skrypty niszczące dane. Służą one również do tworzenia fałszywych stron internetowych, weryfikacji skradzionych danych kart płatniczych oraz opracowywania nowych strategii przestępczych. Z ustaleń Cisco Talos wynika, że FraudGPT jest częścią szerszej kampanii oszustw.

Drugim niepokojącym zjawiskiem jest rosnąca popularność tzw. nieocenzurowanych modeli LLM. Są to narzędzia, w których celowo usunięto wbudowane mechanizmy bezpieczeństwa, modyfikując ich zestawy danych treningowych. Przykładami takich modeli są Ollama czy WhiteRabbitNeo. Pozwalają one na tworzenie niezwykle wiarygodnych wiadomości phishingowych, pozbawionych typowych błędów językowych, co znacznie ułatwia oszukanie ofiary i wyłudzenie od niej danych.

Przestępcy nie gardzą również legalnymi, powszechnie dostępnymi modelami językowymi. Chociaż są one wyposażone w zabezpieczenia, ich ogromna moc obliczeniowa jest kuszącym celem. Aby obejść wbudowane reguły i skłonić AI do wygenerowania szkodliwych treści, hakerzy stosują techniki takie jak prompt injection. Polega ona na wprowadzaniu specjalnie spreparowanych zapytań, które „łamżą” zabezpieczenia modelu i zmuszają go do udzielenia odpowiedzi, która normalnie byłaby zablokowana.

„Ta nowa technologia niekoniecznie wyposaża cyberprzestępców w zupełnie nową broń cybernetyczną, ale działa jak multiplikator, wzmacniając i udoskonalając znane techniki ataku” – podsumowuje Jaeson Schultz z Cisco Talos. Jak dodaje, wraz z rozwojem AI przestępcy będą nadal używać LLM do usprawniania swoich procesów i tworzenia treści, które łatwiej ominą zabezpieczenia.

Cisco Talos ostrzega: cyberprzestępcy coraz skuteczniej omijają uwierzytelnianie wieloskładnikowe (MFA)

#AI #Cisco #CiscoTalos #cyberataki #cyberbezpieczeństwo #dużeModeleJęzykowe #FraudGPT #hakerzy #LLM #malware #news #phishing #sztucznaInteligencja #WormGPT

Hackers are turning to new malicious AI models to write malware and scams. Cisco Talos says uncensored and custom AI tools are driving a new wave of cybercrime.

More: https://hackread.com/malicious-ai-models-wave-of-cybercrime-cisco-talos/

#CyberSecurity #AI #LLMs #CyberCrime #FraudGPT

Malicious AI Models Are Behind a New Wave of Cybercrime, Cisco Talos

Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread

Hackread - Latest Cybersecurity, Hacking News, Tech, AI & Crypto

Totgesagte leben länger:
Nachdem der Pionier "#WormGPT", ein AI-Tool ohne die bekannten ethischen und rechtlichen Grenzen gängiger LLMs schon in 2023 wieder eingestellt wurde, folgten massenhaft Klone mit eingängigen Bezeichnungen wie #FraudGPT.

Doch nun haben Sicherheitsforscher festgestellt, dass WormGPT in zwei Varianten zurück ist - einmal technisch basierend auf der gejailbreakten Grok-API und das andere Mal auf Mistral AI - mit ausgezeichneter Leistungsfähigkeit:

https://www.catonetworks.com/blog/cato-ctrl-wormgpt-variants-powered-by-grok-and-mixtral/

Второе пришествие мейнфреймов. Всё больше компаний хотят запускать ИИ у себя в офисе

Мейнфрейм IBM z16 во время лабораторных тестов в 2022 г, источник Приложения ИИ находят применение в бизнесе. Но есть проблема: корпоративные данные и документация представляют коммерческую тайну. Их нельзя передавать на сторону, тем более в облачную систему машинного обучения. Кроме того, что сама передача небезопасна, так ещё и публичная модель будет обучаться на наших секретах , а потом помогать конкурентам. В общем, у коммерческих компаний остаётся один вариант: поднимать собственный сервер или вычислительный кластер с ИИ. Таким образом, из эпохи облачных вычислений мы возвращаемся к старому доброму самохостингу, только сейчас это самохостинг GPU , серверы и мейнфреймы.

https://habr.com/ru/companies/ruvds/articles/867316/

#IBM #мейнфреймы #Telum_II #AnythingLLM #ChatGPT #Meta #обман #человечество #Mount_Diablo #IBM_z16 #самохостинг #ЦОД #датацентр #WatsonX #Copilot #Twinny #llamafile #Ollama #GPT4All #FraudGPT #WormGPT #Khoj #LocalAI #ruvds_статьи

Второе пришествие мейнфреймов. Всё больше компаний хотят запускать ИИ у себя в офисе

Мейнфрейм IBM z16 во время лабораторных тестов в 2022 г, источник Приложения ИИ находят применение в бизнесе. Но есть проблема: корпоративные данные и документация представляют коммерческую тайну. Их...

Хабр

Was ist FraudGPT?

#FraudGPT ist ein unmoderierter #Chatbot, der auf #Cyberkriminalität und Betrug spezialisiert ist. Er basiert auf einem großen Sprachmodell, das für kriminelle Zwecke trainiert wurde.

#Cybersecurity

https://ogy.de/oytk

Was ist Vendor Privileged Access Management?

Vendor Privileged Access Management ist ein Sicherheitskonzept, das privilegierte Zugriffe von Lieferanten, Auftragnehmern und Drittanbietern managt. Das VPAM sorgt für die Kontrolle, Überwachung und Absicherung der externen Zugriffe und ist eine Unterkategorie des Privileged Access Managements (PAM).

Security-Insider

From good cop, bad cop to good bot, bad bot. Spiderlabs compared the two best-known malicious LLMs and their evolutionary stages. The conclusion on WormGPT and FraudGPT - "The product may still be far from perfect, but one way or another, this is a clear sign that generative artificial intelligence can become a weapon in the hands of cybercriminals." #ai #tech #fraudgpt #wormgpt #cybersec #darknet

https://www.trustwave.com/en-us/resources/blogs/spiderlabs-blog/wormgpt-and-fraudgpt-the-rise-of-malicious-llms/

WormGPT and FraudGPT – The Rise of Malicious LLMs

As technology continues to evolve, there is a growing concern about the potential for large language models (LLMs), like ChatGPT, to be used for criminal purposes. In this blog we will discuss two such LLM engines that were made available recently on underground forums, WormGPT and FraudGPT.

KI für Cyberangriffe genutzt: Microsoft und OpenAI schlagen Alarm

KI wird aktiv für Cyberangriffe eingesetzt. Vor allem staatliche Gruppen nutzen künstliche Intelligenz, um ihre Angriffe zu "verfeinern".

Tarnkappe.info
@tarnkappeinfo gibt's auch das Gegenteil von #FraudGPT? Welche GPTs wären das?