Przejdź do głównej treści
Otwórz wyszukiwarkę
Szukaj
Zamknij wyszukiwarkę Wyczyść Szukaj
Produkty w koszyku: 0. Zobacz szczegóły

Twój koszyk jest pusty

Helion

ATAKI NA AI, śRODKI NEUTRALIZUJąCE I STRATEGIE OBR - JOHN SOTIROPOULOS

Przejdź do sekcji Opinie

Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps Wraz z rozwojem rewolucyjnych możliwości modeli AI pojawiają się nowe zagrożenia. Może to być na przykład manipulowanie działaniem sztucznej inteligencji, by celowo doprowadzić do błędnych decyzji. Tak właśnie prowadzi się ataki adwersarialne. Konsekwencje takich manipulacji, jak również innych, mogą być bardzo poważne. Jednak zrozumienie ich istoty i wdrożenie adekwatnych zabezpieczeń stanowi ogromne wyzwanie. Tę książkę docenią specjaliści do spraw cyberbezpieczeństwa, którzy chcą zdobyć umiejętności zabezpieczania systemów AI. Znajdą w niej uporządkowaną prezentację wyników badań i najnowszych standardów branżowych, z uwzględnieniem klasyfikacji: MITRE, NIST i OWASP. W przewodniku omówiono strategię zabezpieczania AI już na etapie projektowania z wykorzystaniem modelowania zagrożeń, przy czym skoncentrowano się na integracji MLSecOps i LLMOps z systemami bezpieczeństwa przedsiębiorstwa. Dodatkowo przedstawiono przykłady wdrażania integracji ciągłej, strategii i narzędzi MLOps, a także mechanizmów kontroli bezpieczeństwa. Zaproponowano ponadto bazujący na klasycznych filarach NIST plan wzmacniania bezpieczeństwa AI w przedsiębiorstwie. Ciekawsze zagadnienia: zatruwanie danych, omijanie zabezpieczeń i naruszanie prywatności użycie sieci GAN do przeprowadzania ataków i generowania deepfake'ów nowe zagrożenia bezpieczeństwa LLM, w tym wstrzykiwanie promptów i ekstrakcja danych zatruwanie LLM metodami: RAG, osadzeń i dostrajania nowe zagrożenia związane z łańcuchem dostaw i modelami LLM o otwartym dostępie wdrażanie operacji MLSecOps z integracją ciągłą MLOps i SBOM Podejmij wyzwanie: ochroń AI przed nadużyciami!

Przejdź do pełnego opisu
Cena 80,11 zł
szt.
Dostępność:
średnia ilość
Czas wysyłki: 48 godzin

Opis

Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps Wraz z rozwojem rewolucyjnych możliwości modeli AI pojawiają się nowe zagrożenia. Może to być na przykład manipulowanie działaniem sztucznej inteligencji, by celowo doprowadzić do błędnych decyzji. Tak właśnie prowadzi się ataki adwersarialne. Konsekwencje takich manipulacji, jak również innych, mogą być bardzo poważne. Jednak zrozumienie ich istoty i wdrożenie adekwatnych zabezpieczeń stanowi ogromne wyzwanie. Tę książkę docenią specjaliści do spraw cyberbezpieczeństwa, którzy chcą zdobyć umiejętności zabezpieczania systemów AI. Znajdą w niej uporządkowaną prezentację wyników badań i najnowszych standardów branżowych, z uwzględnieniem klasyfikacji: MITRE, NIST i OWASP. W przewodniku omówiono strategię zabezpieczania AI już na etapie projektowania z wykorzystaniem modelowania zagrożeń, przy czym skoncentrowano się na integracji MLSecOps i LLMOps z systemami bezpieczeństwa przedsiębiorstwa. Dodatkowo przedstawiono przykłady wdrażania integracji ciągłej, strategii i narzędzi MLOps, a także mechanizmów kontroli bezpieczeństwa. Zaproponowano ponadto bazujący na klasycznych filarach NIST plan wzmacniania bezpieczeństwa AI w przedsiębiorstwie. Ciekawsze zagadnienia: zatruwanie danych, omijanie zabezpieczeń i naruszanie prywatności użycie sieci GAN do przeprowadzania ataków i generowania deepfake'ów nowe zagrożenia bezpieczeństwa LLM, w tym wstrzykiwanie promptów i ekstrakcja danych zatruwanie LLM metodami: RAG, osadzeń i dostrajania nowe zagrożenia związane z łańcuchem dostaw i modelami LLM o otwartym dostępie wdrażanie operacji MLSecOps z integracją ciągłą MLOps i SBOM Podejmij wyzwanie: ochroń AI przed nadużyciami!


Strony: 600, Format: 235x165 mm
Rok wydania: 2025, oprawa: broszurowa

Opinie

Liczba ocen: 0
Oceń i opisz

Polecane produkty