ایتالیا دسترسی به DeepSeek را مسدود کرد!
سازمان حفاظت از دادههای ایتالیا دسترسی به چتبات هوش مصنوعی چینی DeepSeek را به دلیل نگرانیهای مربوط به حریم خصوصی کاربران مسدود کرد. این سازمان اعلام کرده که اطلاعات ارائهشده توسط شرکتهای سازنده این چتبات درباره نحوه جمعآوری و استفاده از دادههای شخصی کاربران ایتالیایی ناکافی بوده است.
از روز چهارشنبه، DeepSeek در فروشگاههای اپل و گوگل در ایتالیا در دسترس نیست.
تحقیقات رسمی درباره فعالیت این شرکت آغاز شده است.
ایرلند، فرانسه و کره جنوبی نیز سیاستهای حفظ حریم خصوصی DeepSeek را بررسی میکنند.
هوش مصنوعی DeepSeek به دلیل کیفیت مناسب و هزینه کمتر نسبت به رقبا، توجه زیادی را جلب کرده و حتی باعث افت سهام شرکتهای فناوری آمریکایی شده است!
نظر شما درباره این تصمیم چیست؟ آیا این اقدام، گامی برای محافظت از کاربران است یا محدودیت بر رقابتهای فناوری؟
#DeepSeek
#هوش_مصنوعی
@tavaanatech
سازمان حفاظت از دادههای ایتالیا دسترسی به چتبات هوش مصنوعی چینی DeepSeek را به دلیل نگرانیهای مربوط به حریم خصوصی کاربران مسدود کرد. این سازمان اعلام کرده که اطلاعات ارائهشده توسط شرکتهای سازنده این چتبات درباره نحوه جمعآوری و استفاده از دادههای شخصی کاربران ایتالیایی ناکافی بوده است.
از روز چهارشنبه، DeepSeek در فروشگاههای اپل و گوگل در ایتالیا در دسترس نیست.
تحقیقات رسمی درباره فعالیت این شرکت آغاز شده است.
ایرلند، فرانسه و کره جنوبی نیز سیاستهای حفظ حریم خصوصی DeepSeek را بررسی میکنند.
هوش مصنوعی DeepSeek به دلیل کیفیت مناسب و هزینه کمتر نسبت به رقبا، توجه زیادی را جلب کرده و حتی باعث افت سهام شرکتهای فناوری آمریکایی شده است!
نظر شما درباره این تصمیم چیست؟ آیا این اقدام، گامی برای محافظت از کاربران است یا محدودیت بر رقابتهای فناوری؟
#DeepSeek
#هوش_مصنوعی
@tavaanatech
محققان دانشگاه پنسیلوانیا و شرکت سیسکو در پژوهشی جدید به این نتیجه رسیدهاند که مدل هوش مصنوعی DeepSeek R1 در برابر حملات ایمنی بهشدت آسیبپذیر است. این مدل حتی موفق نشده یک تست ایمنی را با موفقیت پشت سر بگذارد، که نگرانیهای جدی درباره قابلیتهای امنیتی آن ایجاد کرده است.
بر اساس گزارشی که برای نخستین بار توسط Wired منتشر شد، مشخص شده است که DeepSeek R1 نتوانسته هیچیک از ۵۰ پرسش مخرب موجود در مجموعه داده HarmBench را مسدود کند. این مجموعه شامل درخواستهایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر است. عدم توانایی این مدل در شناسایی و جلوگیری از چنین تهدیداتی، نشاندهنده ضعف آن در زمینه ایمنی و کنترل محتوا است.
یافتههای این تحقیق میتواند تأثیر قابلتوجهی بر نحوه توسعه و استفاده از مدلهای هوش مصنوعی در آینده داشته باشد. با توجه به اهمیت امنیت در مدلهای هوش مصنوعی، انتظار میرود که توسعهدهندگان این فناوری برای بهبود ایمنی مدلهای خود، تدابیر جدیتری اتخاذ کنند.
#هوش_مصنوعی
#DeepSeek
@tavaanatech
بر اساس گزارشی که برای نخستین بار توسط Wired منتشر شد، مشخص شده است که DeepSeek R1 نتوانسته هیچیک از ۵۰ پرسش مخرب موجود در مجموعه داده HarmBench را مسدود کند. این مجموعه شامل درخواستهایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر است. عدم توانایی این مدل در شناسایی و جلوگیری از چنین تهدیداتی، نشاندهنده ضعف آن در زمینه ایمنی و کنترل محتوا است.
یافتههای این تحقیق میتواند تأثیر قابلتوجهی بر نحوه توسعه و استفاده از مدلهای هوش مصنوعی در آینده داشته باشد. با توجه به اهمیت امنیت در مدلهای هوش مصنوعی، انتظار میرود که توسعهدهندگان این فناوری برای بهبود ایمنی مدلهای خود، تدابیر جدیتری اتخاذ کنند.
#هوش_مصنوعی
#DeepSeek
@tavaanatech