ارائه جدید به CISOها، تیم‌های امنیتی و MSSPها امکان می‌دهد تا AI را برای تحلیل تهدید، پاسخ به حادثه و انطباق مستقر کنند—بدون قرار دادن داده‌های حساس در معرض عمومارائه جدید به CISOها، تیم‌های امنیتی و MSSPها امکان می‌دهد تا AI را برای تحلیل تهدید، پاسخ به حادثه و انطباق مستقر کنند—بدون قرار دادن داده‌های حساس در معرض عموم

LLM.co زیرساخت خصوصی LLM را به‌طور ویژه برای تیم‌های امنیت سایبری راه‌اندازی می‌کند

پیشنهاد جدید به CISOها، تیم‌های امنیتی و MSSPها امکان می‌دهد تا هوش مصنوعی را برای تجزیه و تحلیل تهدیدات، پاسخ به حوادث و انطباق مستقر کنند—بدون اینکه داده‌های حساس را در معرض مدل‌های عمومی قرار دهند

LLM.co، ارائه‌دهنده زیرساخت مدل زبان بزرگ (LLM) خصوصی برای صنایع تنظیم‌شده و حساس به داده، امروز راه‌اندازی راهکارهای LLM خصوصی طراحی‌شده به‌طور خاص برای امنیت سایبری خود را اعلام کرد. این پیشنهاد جدید به سازمان‌ها اجازه می‌دهد تا هوش مصنوعی را در عملیات امنیتی به کار گیرند در حالی که داده‌های حساس به طور کامل در محیط خودشان محفوظ می‌ماند.

همان‌طور که تیم‌های امنیت سایبری به طور فزاینده‌ای با هوش مصنوعی آزمایش می‌کنند تا تشخیص، پاسخ و کارایی عملیاتی را بهبود بخشند، بسیاری با یک مانع اساسی مواجه هستند: مدل‌های هوش مصنوعی عمومی با الزامات امنیتی، انطباق و حاکمیت داده ناسازگار هستند. لاگ‌ها، هشدارها، داده‌های حوادث و مواد تحقیقاتی نمی‌توانند به طور ایمن با پلتفرم‌های هوش مصنوعی شخص ثالث به اشتراک گذاشته شوند بدون اینکه ریسک غیرقابل قبولی معرفی کنند.

زیرساخت LLM خصوصی LLM.co این چالش را با فعال کردن استقرارهای هوش مصنوعی کاملاً ایزوله—در محل، در محیط‌های ابری خصوصی، یا در پیکربندی‌های ترکیبی—بدون اینکه داده‌ها هرگز از کنترل سازمان خارج شوند، مورد توجه قرار می‌دهد.

"تیم‌های امنیتی دستاوردهای بهره‌وری که هوش مصنوعی ارائه می‌دهد را می‌خواهند، اما نمی‌توانند در حفاظت از داده‌ها مصالحه کنند"، ساموئل ادواردز، مدیر ارشد بازاریابی در LLM.co گفت. "LLMهای خصوصی آن مصالحه را از بین می‌برند. این درباره دادن قابلیت‌های هوش مصنوعی مدرن به تیم‌های امنیت سایبری است بدون ایجاد سطوح حمله جدید یا مسئولیت‌های انطباق."

ساخته‌شده برای گردش‌های کاری امنیت سایبری پرخطر

LLMهای خصوصی LLM.co برای پشتیبانی از عملیات امنیتی دنیای واقعی طراحی شده‌اند، از جمله:

  • تجزیه و تحلیل تهدیدات و اولویت‌بندی هشدارها در سیستم‌های SIEM، SOAR و EDR
  • پشتیبانی پاسخ به حوادث، شامل playbook‌ها و تجزیه و تحلیل علت ریشه‌ای
  • مستندسازی امنیتی، گزارش‌دهی و خلاصه‌های اجرایی
  • تجزیه و تحلیل سیاست، نقشه‌برداری انطباق و آماده‌سازی ممیزی
  • ارزیابی آسیب‌پذیری و قرار گرفتن در معرض
  • پایگاه‌های دانش امنیتی داخلی آموزش‌دیده بر روی داده‌های اختصاصی

برخلاف ابزارهای هوش مصنوعی عمومی، مدل‌های LLM.co بر روی داده‌های مشتری آموزش داده نمی‌شوند، درخواست‌ها را به صورت خارجی ثبت نمی‌کنند و کاملاً در محیط‌های کنترل‌شده عمل می‌کنند.

"از منظر درآمد و ورود به بازار، ما تقاضای قوی از سازمان‌هایی را می‌بینیم که قبلاً ریسک‌های هوش مصنوعی عمومی را درک می‌کنند"، تیموتی کارتر، مدیر ارشد درآمد در LLM.co گفت. "CISOها نمی‌پرسند که آیا هوش مصنوعی در امنیت استفاده خواهد شد—آن‌ها می‌پرسند چگونه آن را به طور ایمن مستقر کنند. LLMهای خصوصی به سرعت در حال تبدیل شدن به پاسخ پیش‌فرض هستند."

طراحی‌شده برای کنترل سازمانی و انطباق

استقرارهای LLM متمرکز بر امنیت سایبری LLM.co از الزامات حاکمیتی سختگیرانه پشتیبانی می‌کنند، شامل سیاست‌های امنیتی داخلی و چارچوب‌های انطباق صنعتی مانند SOC 2، ISO 27001، HIPAA، CJIS و سایر استانداردهای نظارتی. سازمان‌ها کنترل کامل بر دسترسی به داده، نگهداری، رفتار مدل و مجوزهای کاربر را حفظ می‌کنند.

"گفتگوهای فروش در امنیت سایبری اساساً درباره اعتماد و کنترل است"، اریک لامانا، معاون فروش در LLM.co گفت. "LLMهای خصوصی به رهبران امنیتی اجازه می‌دهند با ابتکارات هوش مصنوعی پیش بروند بدون اینکه ریسک را به سمت حقوقی، انطباق یا هیئت مدیره هل دهند. آن هم‌راستایی برای پذیرش حیاتی است."

خدمات به سازمان‌ها، MSSPها و صنایع تنظیم‌شده

پیشنهاد LLM خصوصی برای موارد زیر طراحی شده است:

  • تیم‌های امنیتی سازمانی
  • ارائه‌دهندگان خدمات امنیتی مدیریت‌شده (MSSPs) و شرکت‌های MDR
  • سازمان‌های خدمات مالی، مراقبت‌های بهداشتی، دولتی و زیرساخت‌های حیاتی
  • هر سازمانی با الزامات سختگیرانه رسیدگی به داده و محرمانگی

LLM.co با استک‌های امنیتی و گردش‌های کاری موجود یکپارچه می‌شود و به تیم‌ها اجازه می‌دهد هوش مصنوعی را بدون مختل کردن کنترل‌ها یا فرآیندهای تثبیت‌شده مستقر کنند.

تغییر گسترده‌تر به سمت هوش مصنوعی خصوصی و خاص حوزه

این راه‌اندازی منعکس‌کننده یک تغییر گسترده‌تر صنعت از هوش مصنوعی عمومی چندمنظوره به سمت LLMهای خصوصی و خاص حوزه متناسب با موارد استفاده پرخطر است. با شتاب گرفتن پذیرش هوش مصنوعی، سازمان‌ها به طور فزاینده‌ای معماری‌هایی را که قابلیت را با کنترل متعادل می‌کنند، اولویت‌بندی می‌کنند.

"امنیت سایبری یکی از واضح‌ترین نمونه‌های جایی است که هوش مصنوعی خصوصی اختیاری نیست—ضروری است"، ادواردز افزود. "این راه‌اندازی آنچه را که بسیاری از رهبران امنیتی قبلاً می‌دانند رسمی می‌کند: اگر هوش مصنوعی به داده‌های امنیتی حساس دست بزند، باید از نظر طراحی خصوصی باشد."

درباره LLM.co

ایجادشده توسط DEV.co، LLM.co زیرساخت مدل زبان بزرگ خصوصی و ایمن را برای سازمان‌هایی که در محیط‌های تنظیم‌شده و حساس به داده فعالیت می‌کنند، ارائه می‌دهد. این شرکت در استقرار سیستم‌های هوش مصنوعی که انطباق، کنترل و امنیت سطح سازمانی را اولویت‌بندی می‌کنند تخصص دارد—که به تیم‌ها امکان می‌دهد از هوش مصنوعی بهره‌مند شوند بدون اینکه اطلاعات اختصاصی یا حساس را در معرض قرار دهند.

اطلاعات تماس:
نام: ساموئل ادواردز
ایمیل: ارسال ایمیل
سازمان: Digital.Marketing
وب‌سایت: https://digital.marketing

شناسه انتشار: 89182243

اگر هرگونه مسئله، مشکل یا خطایی در محتوای این بیانیه مطبوعاتی شناسایی کردید، لطفاً با error@releasecontact.com تماس بگیرید تا ما را مطلع کنید (توجه داشته باشید که این ایمیل کانال مجاز برای چنین مواردی است، ارسال ایمیل‌های متعدد به آدرس‌های مختلف لزوماً به تسریع درخواست شما کمک نمی‌کند). ما در ۸ ساعت آینده پاسخ خواهیم داد و وضعیت را اصلاح خواهیم کرد.

سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل service@support.mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.