OpenAI, výrobci ChatGPT, se zavazují k vývoji bezpečných AI systémů

obrazek1.png

OpenAI zveřejnil nový blogový příspěvek, ve kterém se zavázal k vývoji umělé inteligence (AI), která je bezpečná a prospěšná pro všechny.

ChatGPT, který je poháněn nejnovějším modelem GPT-4 od společnosti OpenAI, může zvyšovat produktivitu, zlepšovat kreativitu a poskytovat přizpůsobené učební zkušenosti.

Nicméně OpenAI uznává, že nástroje umělé inteligence mají vrozená rizika, která je třeba řešit pomocí bezpečnostních opatření a odpovědného nasazení.

Zde je, co společnost dělá pro zmírnění těchto rizik.

Zajištění bezpečí v AI systémech

OpenAI provádí důkladné testování, vyhledává externí odborné rady a upravuje své AI modely s pomocí lidské zpětné vazby před vydáním nových systémů.

Vydání GPT-4 například předcházela více než šestiměsíční testovací fáze, aby byla zajištěna jeho bezpečnost a přizpůsobení uživatelským potřebám.

OpenAI věří, že robustní AI systémy by měly být podrobeny důkladným bezpečnostním hodnocením a podporuje potřebu regulace.

Učení se z reálného světa použití

Skutečné použití je klíčovou součástí vývoje bezpečných systémů AI. Opatrným uvolňováním nových modelů postupně rozšiřujícímu se uživatelskému základu může OpenAI provést vylepšení, která řeší nepředvídatelné problémy.

Nabízením modelů umělé inteligence prostřednictvím svého rozhraní API a webové stránky dokáže OpenAI sledovat zneužití, přijímat vhodná opatření a vyvíjet vyvážené politiky, které minimalizují rizika.

Ochrana dětí a dodržování soukromí

OpenAI prioritizuje ochranu dětí tím, že vyžaduje ověření věku a zakazuje použití své technologie k vytváření škodlivého obsahu.

Soukromí je dalším zásadním aspektem práce OpenAI. Organizace využívá data k tomu, aby její modely byly užitečnější a zároveň chrání uživatele.

Kromě toho OpenAI odstraňuje osobní informace z trénovacích datasetů a vylepšuje modely tak, aby odmítaly žádosti o osobní informace.

OpenAI bude reagovat na žádosti o vymazání osobních údajů ze svých systémů.

Zlepšování faktické přesnosti

Přesnost faktických informací je pro OpenAI významným cílem. GPT-4 má o 40% větší pravděpodobnost, že vygeneruje správné obsahy než jeho předchůdce, GPT-3.5.

Organizace se snaží informovat uživatele o omezeních nástrojů AI a možnosti nepřesností.

Pokračování výzkumu a zapojování se

OpenAI věří v věnování času a prostředků výzkumu účinných mitigací a technik zarovnání.

Nicméně, to samo o sobě není něco, co by mohlo udělat sám. Řešení bezpečnostních problémů vyžaduje rozsáhlou diskusi, experimentování a zapojení zúčastněných stran.

OpenAI zůstává oddáno podporování spolupráce a otevřeného dialogu pro vytvoření bezpečného ekosystému umělé inteligence.

Kritika nad existenčními riziky

Přestože OpenAI je zavázáno zajistit bezpečnost svých systémů AI a jejich široké výhody, jeho blogový příspěvek vyvolal kritiku na sociálních médiích.

Uživatelé Twitteru vyjádřili zklamání, tvrdíce, že OpenAI nedostatečně řeší existenční rizika spojená s vývojem umělé inteligence (AI).

Jeden uživatel Twitteru vyjádřil své zklamání a obvinil OpenAI z zrady své původní mise a zaměření se na neuváženou komercializaci.

Uživatel navrhuje, že přístup OpenAI k bezpečnosti je povrchní a více se zabývá uspokojováním kritiků než řešením skutečných existenčních rizik.

To je hořce zklamání, vyprázdněné PR okýnko oblékání.

Nevzpomenete si ani na existenciální rizika vyplývající z AI, která jsou středobodem obav mnoha občanů, technologů, výzkumníků AI a představitelů průmyslu AI, včetně vašeho vlastního generálního ředitele @sama.@OpenAI zradilo svou...

— Geoffrey Miller (@primalpoly) 5. dubna 2023

Další uživatel vyjádřil nespokojenost s oznámením a tvrdí, že přehlíží skutečné problémy a zůstává nejasné. Uživatel také zdůrazňuje, že zpráva ignoruje kritické etické otázky a rizika spojená s uvědoměním umělé inteligence, naznačuje tím, že přístup OpenAI k bezpečnostním otázkám je nedostatečný.

Jako fanoušek GPT-4 jsem zklamaný z vašeho článku.

Přechází přes skutečné problémy, zůstává neurčitý a přehlíží zásadní etické otázky a rizika spojená s vědomím AI.

Oceňuji inovaci, ale toto není správný přístup k řešení bezpečnostních problémů.

— FrankyLabs (@FrankyLabs) 5. dubna 2023

Kritika poukazuje na širší obavy a probíhající diskusi o existenciálních rizicích spojených s vývojem AI.

Přestože oznámení OpenAI zdůrazňuje jeho závazek k bezpečnosti, ochraně soukromí a přesnosti, je nezbytné si uvědomit potřebu dalšího jednání, které se bude zabývat závažnějšími obavami.

Příbuzné články

Zobrazit víc >>

Odemkněte sílu AI s HIX.AI!