Wyścig zbrojeń w sieci. Hakerzy i eksperci od bezpieczeństwa walczą na sztuczną inteligencję

W świecie cyberbezpieczeństwa rozpoczął się nowy, niepokojący wyścig zbrojeń. Jak donosi serwis TechSpot, powołując się na analityków ds. zagrożeń, zarówno cyberprzestępcy, jak i broniące systemów zespoły ekspertów, zaczęli na masową skalę wykorzystywać te same narzędzia – duże modele językowe (LLM) i chatboty oparte na AI. Sztuczna inteligencja staje się jednocześnie potężnym orężem w rękach hakerów i kluczową tarczą obronną specjalistów.

Pierwsze dowody na użycie AI przez agresorów są już jawne. W lipcu ukraińskie władze we współpracy z ekspertami ds. bezpieczeństwa publicznie udokumentowały pierwsze złośliwe oprogramowanie napędzane przez AI – malware o nazwie Lamehug. Zostało ono wykorzystane przez rosyjską grupę szpiegowską APT28 i potrafiło, za pośrednictwem API Hugging Face, tłumaczyć proste komendy tekstowe na skomplikowane zadania wykonywane na zainfekowanym komputerze. Firma CrowdStrike również potwierdza, że obserwuje rosnącą liczbę dowodów na wykorzystanie AI przez grupy hakerskie z Chin, Rosji i Iranu.

Nowa aktywność OpenAI na Hugging Face. OpenAI publikuje otwarte modele [aktualizacja]

Eksperci od cyberbezpieczeństwa nie pozostają jednak w tyle i wdrażają sztuczną inteligencję do obrony. Google poinformowało, że ich model AI Gemini pomógł już zidentyfikować co najmniej 20 poważnych luk bezpieczeństwa w szeroko stosowanym oprogramowaniu, a wyniki zostały przekazane odpowiednim producentom. Mimo to, przedstawiciele firmy tonują nastroje. „To początek początku. Może zbliżamy się do środka początku” – enigmatycznie stwierdziła wiceprezes Google ds. inżynierii bezpieczeństwa, Heather Adkins.

Obecnie sztuczna inteligencja nie przyniosła jeszcze rewolucyjnych zmian w cyberbezpieczeństwie, ale okazała się niezwykle skuteczna w automatyzacji i przyspieszaniu zadań, które do tej pory wykonywali ludzie. Zarówno atakujący, jak i obrońcy, mogą dzięki niej szybciej znajdować luki w kodzie i tworzyć odpowiednie narzędzia. Co ciekawe, hakerzy już teraz czerpią zyski z zastosowania AI, podczas gdy wielkie firmy technologiczne wciąż zmagają się z monetyzacją swoich rozwiązań w tej dziedzinie.

Mimo rosnącego zagrożenia, niektórzy eksperci pozostają optymistami. Alexei Bulazel, dyrektor ds. cyberbezpieczeństwa w Radzie Bezpieczeństwa Narodowego Białego Domu, uważa, że w ostatecznym rozrachunku AI będzie faworyzować obrońców. Jego zdaniem, sztuczna inteligencja doskonale sprawdza się w demokratyzacji dostępu do informacji o podatnościach i wykrywaniu rutynowych błędów, co w dłuższej perspektywie da przewagę zespołom ds. bezpieczeństwa.

#AI #bezpieczeństwoIT #cyberbezpieczeństwo #GoogleGemini #hakerzy #Lamehug #LLM #malware #news #Rosja #sztucznaInteligencja

🇺🇦LameHug Malware uses AI LLM to craft Windows Data-Theft Commands in Real-Time.

LameHug was discovered by Ukraine’s national cyber incident response team [CERT-UA] and attributed the attacks to Russian state-backed threat group APT28 [a.k.a. Sednit, Sofacy, Pawn Storm, Fancy Bear, STRONTIUM, Tsar Team, Forest Blizzard].

https://cert.gov.ua/article/6284730

#ukraine #government #certua #lamehug #windows #ai #llm #malware #it #security #privacy #engineer #media #tech #news

#KIMissbrauch

Mit #Lamehug ist erstmals eine #Malware aufgetaucht, die aktiv ein KI-#Sprachmodell zur Generierung von #Schadcode nutzt.

Die #Schadsoftware greift über eine API auf das #Alibaba-LLM #Qwen zu, um gezielt #Spionagecode auf infizierten #Windows-Rechnern zu erzeugen.

#Sicherheitsexperten sehen darin eine neue Stufe der Tarnung, da der Schadcode nicht vorab fest einprogrammiert ist.

https://www.derstandard.at/story/3000000281005/lamehug-aufregung-um-erste-malware-die-schadcode-mithilfe-von-ki-erzeugt

#Cybersicherheit #LLM #QwenAI #Spionagesoftware

Lamehug: Aufregung um erste Malware, die Schadcode mithilfe von KI erzeugt

Die Malware schickt von einem infizierten Windows-Rechner Befehle an das Alibaba-LLM Qwen, damit dieses Code zu Spionage und Datenweiterleitung erstellt

DER STANDARD

#Datendiebstahl: Neue #Malware lässt #KI zur Laufzeit #Befehle erzeugen

Eine #Windows- #Malware namens #Lamehug sorgt für Aufsehen. Befehle zum Ausleiten von Daten werden zur Laufzeit von einer KI generiert.

#Sicherheitsforscher haben eine neuartige #Malware entdeckt, die sich eines großen #Sprachmodells bedient, um zur Laufzeit Befehle zu generieren und zur Ausführung zu bringen.

https://www.golem.de/news/datendiebstahl-neue-malware-laesst-ki-zur-laufzeit-befehle-erzeugen-2507-198517.html

Datendiebstahl: Neue Malware lässt KI zur Laufzeit Befehle erzeugen - Golem.de

Eine Windows-Malware namens Lamehug sorgt für Aufsehen. Befehle zum Ausleiten von Daten werden zur Laufzeit von einer KI generiert.

Golem.de

Cato CTRL™ Threat Research: Analyzing LAMEHUG | Cato Networks

"First Known LLM-Powered Malware with Links to APT28 (Fancy Bear)"

https://www.catonetworks.com/blog/cato-ctrl-threat-research-analyzing-lamehug/

#APT28 #FancyBear #AI #LLM #Lamehug #HuggingFace

Cato CTRL™ Threat Research: Analyzing LAMEHUG – First Known LLM-Powered Malware with Links to APT28 (Fancy Bear) 

LAMEHUG is an LLM-powered malware discovered by the Computer Emergency Response Team of Ukraine (CERT-UA). According to CERT-UA, LAMEHUG has links to APT28 (Fancy Bear).

Cato Networks