Zjišťujte a blokujte obsah zahrnující násilí, nenávist, sex a sebepoškozování. Nakonfigurujte prahové hodnoty závažnosti pro konkrétní případ použití a dodržujte zásady odpovědné AI.
Vytvářejte jedinečné filtry obsahu přizpůsobené vašim požadavkům na základě vlastních kategorií. Novou vlastní kategorii můžete rychle vytrénovat tím, že zadáte příklady obsahu, který potřebujete blokovat.
Chraňte své aplikace využívající AI před útoky prostřednictvím injektáže instrukcí (výzev) nebo pokusy o jailbreak. Identifikujte a zmírňujte přímé i nepřímé hrozby s využitím ochrany výzev.
Vyvíjejte aplikace využívající AI s integrovanou bezpečností
Zjišťujte a omezujte škodlivý obsah ve vstupech a výstupech generovaných uživateli i umělou inteligencí, a to včetně textu, obrázků a kombinovaných multimédií. To vše vám umožní služba Bezpečnost obsahu Azure AI.
Případy použití
Chraňte své aplikace s AI
Vyvíjejte korekce pro aplikace s generativní AI
Monitorujte obsah generovaný lidmi pomocí AI
Zabezpečení
Integrované zabezpečení a dodržování předpisů
34 000
Technici věnující se na plný úvazek bezpečnostním iniciativám v Microsoftu.
15 000
Partneři se specializovanými znalostmi v oblasti zabezpečení
>100
Certifikace dodržování předpisů, včetně více než 50 certifikátů specifických pro globální oblasti a země
Plaťte jen za to, co používáte – žádné náklady předem. Ceny průběžných plateb za službu Bezpečnost obsahu Azure AI se odvíjí od následujících kritérií:
Urychlete tvorbu a inovaci pomocí produktů Azure AI
Zkombinujte službu Bezpečnost obsahu Azure AI s dalšími produkty Azure AI a vytvořte pokročilé korekce pro generativní AI nebo sestavte komplexní řešení s využitím integrovaných nástrojů odpovědné AI.
Azure OpenAI
Vytvářejte vlastní kopiloty a aplikace s generativní AI s využitím špičkových jazykových a vizuálních modelů.
Podívejte se, jak zákazníci chrání své aplikace pomocí služby Bezpečnost obsahu Azure AI.
"Ministerstvo Department for Education Jižní Austrálie spustilo vzdělávacího chatbota využívajícího generativní AI, který bezpečně začleňuje technologii AI do výuky."
"Společnost ASOS pomocí generativní AI zlepšuje zákaznické prostředí a umožňuje uživatelům snadno hledat nové módní outfity. Bezpečnost obsahu Azure AI pomáhá zajistit vysoce kvalitní interakce a výstupy."
„Společnost Unity vyvinula Muse Chat, aby vylepšila proces vytváření her. Společnost Unity se snaží zajistit odpovědné využití a používá filtry obsahu Azure OpenAI s podporou služby Bezpečnost obsahu Azure AI.“
"Společnost IWill Therapy vytvořila pomocí generativní AI chatbota, který mluví hindsky a poskytuje v Indii kognitivní behaviorální terapii. Řešení využívá Bezpečnost obsahu Azure AI k detekci a filtrování potenciálně škodlivého obsahu."
Přizpůsobení generativní AI za účelem získání jedinečné hodnoty
Přečtěte si novou studii od Microsoftu a MIT Technology Review Insights s expertními informacemi o tom, jak přizpůsobování modelů AI pomáhá špičkovým světovým firmám produkovat větší hodnoty.
Modely bezpečnosti obsahu byly speciálně vytrénovány a otestovány v následujících jazycích: angličtina, němčina, španělština, japonština, francouzština, italština, portugalština a čínština. Služba může fungovat i v jiných jazycích, ale kvalita se může lišit. V každém případě byste měli provést vlastní testování, abyste zajistili, že řešení funguje pro vaši aplikaci.
Vlastní kategorie momentálně správně fungují jen v angličtině. Společně s vlastní datovou sadou můžete použít i jiné jazyky. Kvalita se však může lišit.
Systém monitoruje čtyři kategorie škodlivosti: nenávist, sex násilí a sebepoškozování.
Ano, u každého filtru kategorie škodlivosti můžete upravit prahové hodnoty závažnosti.
Ano, vlastní filtry obsahu můžete vytvořit pomocí rozhraní API vlastních kategorií služby Bezpečnost obsahu Azure AI. Zadáním příkladů můžete filtr vytrénovat tak, aby zjišťoval a blokoval nežádoucí obsah podle definovaných vlastních kategorií.
Ochrana výzev zvyšuje zabezpečení systémů s generativní AI tím, že chrání před útoky prostřednictvím injektáže instrukcí (výzev):
Přímé útoky prostřednictvím výzev (jailbreaky): Uživatelé se pokoušejí manipulovat se systémem AI a obejít bezpečnostní protokoly vytvořením výzev, které se snaží změnit systémová pravidla nebo podvodně navést model na provedení zakázaných akcí.
Nepřímé útoky: Obsah třetích stran (například dokumenty nebo e-maily) zahrnuje skryté pokyny ke zneužití systému AI, jako jsou vložené (embedované) příkazy, které může umělá inteligence nevědomky spustit.
Detekce podloženosti identifikuje a opravuje nepodložené výstupy modelů generativní AI a zajišťuje, že vycházejí z poskytnutých zdrojových materiálů. Tímto způsobem se znemožňuje generování vymyšlených nebo nepravdivých informací. Detekce podloženosti pomocí vlastního jazykového modelu vyhodnocuje výroky na základě zdrojových dat a minimalizuje halucinace AI.
Detekce chráněného materiálu pro text ve výstupech generovaných umělou inteligencí identifikuje a blokuje zobrazování známého textového obsahu, jako jsou texty písní, články, recepty a vybraný webový obsah.
Detekce chráněného materiálu pro kód zjišťuje a znemožňuje výstup známého kódu. Kontroluje shody s veřejným zdrojovým kódem v úložištích na GitHubu. Funkce odkazování na kód využívající GitHub Copilot navíc umožňuje vývojářům vyhledávat úložiště za účelem zkoumání a zjišťování relevantního kódu.
Systém filtrování obsahu ve službě Azure OpenAI využívá službu Bezpečnost obsahu Azure AI. Je navržený tak, aby zjišťoval a znemožňoval výstup škodlivého obsahu ve vstupních výzvách i při dokončování výstupu. Funguje společně se základními modely, včetně GPT a DALL-E.