کلاهبرداری با هوش مصنوعی به معنای استفاده از الگوریتمها و ابزارهای هوش مصنوعی برای فریبدادن افراد یا سیستمها ست. این کلاهبرداریها به دلیل پیشرفتهایی که در تشخیص تصویر، شناسایی صدا و پردازش زبان طبیعی ایجاد شدهاند، میتوانند بسیار خطرناک باشند. برخی از روشهای معمول شامل جعل صدا، جعل تصویر (Deepfakes)، فیشینگ پیشرفته و هککردن خودکار سیستمها هستند.
انواع کلاهبرداریهای مبتنی بر هوش مصنوعی
Deepfakes
یکی از محبوبترین روشها، دیپفیکها هستند. دیپفیکها، ویدیو یا تصاویری جعلی هستند که با دقت بسیار بالایی میتوانند افراد را متقاعد کنند که چیزی که میبینند، واقعی است.
یکی از مشهورترین مثالها، ویدیویی است که در آن از طریق دیپفیک، صورت و صدای بازیگرانی مانند تام کروز روی صورت یک شخص دیگر قرار داده شده است. ویدیوهایی از افراد معروف یا سیاستمدارانی مانند باراک اوباما و دونالد ترامپ ساخته شده که در آنها، هوش مصنوعی بهگونهای چهره و صدای این افراد را شبیهسازی کرده که گویا آنها در حال بیان صحبتهایی هستند که هرگز نگفتهاند.
جعل صدا و تماسهای تقلبی
برخی از کلاهبرداران با استفاده از تکنولوژیهای شبیهسازی صدا، میتوانند صدای فردی خاص را بازسازی کنند و از طریق تماسهای تلفنی یا پیامهای صوتی افراد را فریب دهند.
در این نوع کلاهبرداری پیامهای صوتی جعلی از سوی بانک یا نهادهای رسمی بسیار زیاد است. در این روش، صدای یک کارمند بانک یا یک نهاد رسمی را بازسازی میکنند و از افراد میخواهند تا اطلاعات حساسی مانند شماره کارت، رمز یا کد تایید را ارائه کنند تا حساب کاربری آنها را سرقت کنند.
فیشینگ هوشمند
فیشینگ یکی دیگر از روشهای قدیمی کلاهبرداری است، اما با هوش مصنوعی هوشمندتر شده است. ایمیلها و پیامهایی که به نظر کاملا واقعی و معتبر میآیند و معمولاً حاوی لینکی برای سرقت اطلاعات شخصی شما هستند.
۳ مثال رایج از این نوع کلاهبرداری
۱- ایمیلهای بانکی شخصیسازیشده: کلاهبرداران با استفاده از هوش مصنوعی، ایمیلهایی شبیه به ایمیلهای رسمی بانکها، با اطلاعات شخصی قربانی ارسال میکنند و با یک لینک جعلی اطلاعات حساب بانکی را سرقت میکنند.
۲- پیامهای جعلی از طرف سازمانهای دولتی: پیامهایی با موضوعاتی مانند مالیات پرداختنشده ارسال میشود که با لینکهای جعلی اطلاعات حساب بانکی یا شماره ملی افراد را دریافت میکند.
۳- فیشینگ در شبکههای اجتماعی: هوش مصنوعی از علایق کاربران در شبکههای اجتماعی استفاده کرده و پیامهای فیشینگ هدفمند، مثلا با تخفیفهای مسافرتی جعلی ارسال میکند تا اطلاعات کارت بانکی قربانی را سرقت کند.
۵ راه محافظت در برابر کلاهبرداریهای مبتنی بر هوش مصنوعی
ادامه مطلب:
https://tech.tavaana.org/text/ai-fraud/
#آموزشی #هوش_مصنوعی #کلاهبرداری
@tavaanatech
انواع کلاهبرداریهای مبتنی بر هوش مصنوعی
Deepfakes
یکی از محبوبترین روشها، دیپفیکها هستند. دیپفیکها، ویدیو یا تصاویری جعلی هستند که با دقت بسیار بالایی میتوانند افراد را متقاعد کنند که چیزی که میبینند، واقعی است.
یکی از مشهورترین مثالها، ویدیویی است که در آن از طریق دیپفیک، صورت و صدای بازیگرانی مانند تام کروز روی صورت یک شخص دیگر قرار داده شده است. ویدیوهایی از افراد معروف یا سیاستمدارانی مانند باراک اوباما و دونالد ترامپ ساخته شده که در آنها، هوش مصنوعی بهگونهای چهره و صدای این افراد را شبیهسازی کرده که گویا آنها در حال بیان صحبتهایی هستند که هرگز نگفتهاند.
جعل صدا و تماسهای تقلبی
برخی از کلاهبرداران با استفاده از تکنولوژیهای شبیهسازی صدا، میتوانند صدای فردی خاص را بازسازی کنند و از طریق تماسهای تلفنی یا پیامهای صوتی افراد را فریب دهند.
در این نوع کلاهبرداری پیامهای صوتی جعلی از سوی بانک یا نهادهای رسمی بسیار زیاد است. در این روش، صدای یک کارمند بانک یا یک نهاد رسمی را بازسازی میکنند و از افراد میخواهند تا اطلاعات حساسی مانند شماره کارت، رمز یا کد تایید را ارائه کنند تا حساب کاربری آنها را سرقت کنند.
فیشینگ هوشمند
فیشینگ یکی دیگر از روشهای قدیمی کلاهبرداری است، اما با هوش مصنوعی هوشمندتر شده است. ایمیلها و پیامهایی که به نظر کاملا واقعی و معتبر میآیند و معمولاً حاوی لینکی برای سرقت اطلاعات شخصی شما هستند.
۳ مثال رایج از این نوع کلاهبرداری
۱- ایمیلهای بانکی شخصیسازیشده: کلاهبرداران با استفاده از هوش مصنوعی، ایمیلهایی شبیه به ایمیلهای رسمی بانکها، با اطلاعات شخصی قربانی ارسال میکنند و با یک لینک جعلی اطلاعات حساب بانکی را سرقت میکنند.
۲- پیامهای جعلی از طرف سازمانهای دولتی: پیامهایی با موضوعاتی مانند مالیات پرداختنشده ارسال میشود که با لینکهای جعلی اطلاعات حساب بانکی یا شماره ملی افراد را دریافت میکند.
۳- فیشینگ در شبکههای اجتماعی: هوش مصنوعی از علایق کاربران در شبکههای اجتماعی استفاده کرده و پیامهای فیشینگ هدفمند، مثلا با تخفیفهای مسافرتی جعلی ارسال میکند تا اطلاعات کارت بانکی قربانی را سرقت کند.
۵ راه محافظت در برابر کلاهبرداریهای مبتنی بر هوش مصنوعی
ادامه مطلب:
https://tech.tavaana.org/text/ai-fraud/
#آموزشی #هوش_مصنوعی #کلاهبرداری
@tavaanatech
هوش مصنوعی Grok چیست؟
این ابزار، یک چتبات پیشرفته است و برای این طراحی شده است که به کسبوکارها کمک کند تا کارهایشان را به طور خودکار و راحتتر انجام دهند، اطلاعات مفید را پیدا کنند و تصمیمگیریهای بهتری بگیرند.
با Grok میتوانید وبلاگ بنویسید، کدنویسی کنید، ایمیل مناسب تنظیم کنید، عکس بسازید، ایده بگیرید، دادهها را تحلیل کنید و بسیاری کارهای دیگر انجام دهید. نکته جذاب این آن این است که این ابزار، همه این کارها را کاملا طبیعی و روان انجام میدهد، به طوری که شکا احساس میکنیددارید با یک آدم واقعی صحبت میکنید!
این هوش مصنوعی یک ویژگی جالب نیز دارد که آن را از سایر چتباتها متفاوت میکند. اینکه بسیار شوخطبع، جسور و کاملاً رُک است و حتی به سوالات سخت و چالشبرانگیز هم بدون ترس جواب میدهد!
دسترسی راحتتر از همیشه به Grok AI در شبکه اجتماعی X
خبر خوب این است که دسترسی به Grok AI در شبکه اجتماعی X راحتتر از همیشه شده است. یعنی حالا دیگر Grok به صورت رایگان برای تمام کاربران ایکس در دسترس است و فقط مختص مشترکین پریمیوم نیست و این یک فرصت عالیه برای این است که ببینید این دستیار هوش مصنوعی چطور میتواند به شما کمک کند.
راهنمای شروع کار با Grok
برای شروع به کار با این ابزار باید ۴ تا مرحله ساده را طی کنید.
مرحله اول: وارد حساب X تان شوید:
برای استفاده از Grok، باید یک حساب کاربری در X داشته باشید. اگر دارید، فقط وارد آن شوید اما اگر حساب ندارید، نگران نباشید چراکه خیلی راحت و سریع میتوانید یک حساب جدید بسازید.
مرحله دوم: پیداکردن Grok
بعد از ورود به حساب X
در نسخه دسکتاپ، آیکون Grok را در منوی سمت چپ زیر پروفایل پیدا کنید.
در اپ ایکس نیز آیکون را در منوی پایین صفحه میتوانید پیدا کنید.
روی آیکون کلیک کنید تا وارد صفحه چتبات شوید و از امکاناتش استفاده کنید.
مرحله سوم: شروع چت
حالا که وارد Grok شدید، دانستن ۲ نکته کاربردی به شما در چت کمک میکند:
۱- محدودیت تعداد پیامها: کاربران رایگان میتوانند هر دو ساعت ۱۰ پیام ارسال کنند.
۲- محدودیت در تحلیل تصاویر: شما میتونید روزانه ۳ تصویر برای تحلیل آپلود کنید. فقط تصویر را آپلود کنید و سوالتان را از Grok بپرسید!
ادامه مطلب و تصاویر آموزشی:
https://tech.tavaana.org/digital-security/grok-ai/
#هوش_مصنوعی #گراک
@tavaanatech
این ابزار، یک چتبات پیشرفته است و برای این طراحی شده است که به کسبوکارها کمک کند تا کارهایشان را به طور خودکار و راحتتر انجام دهند، اطلاعات مفید را پیدا کنند و تصمیمگیریهای بهتری بگیرند.
با Grok میتوانید وبلاگ بنویسید، کدنویسی کنید، ایمیل مناسب تنظیم کنید، عکس بسازید، ایده بگیرید، دادهها را تحلیل کنید و بسیاری کارهای دیگر انجام دهید. نکته جذاب این آن این است که این ابزار، همه این کارها را کاملا طبیعی و روان انجام میدهد، به طوری که شکا احساس میکنیددارید با یک آدم واقعی صحبت میکنید!
این هوش مصنوعی یک ویژگی جالب نیز دارد که آن را از سایر چتباتها متفاوت میکند. اینکه بسیار شوخطبع، جسور و کاملاً رُک است و حتی به سوالات سخت و چالشبرانگیز هم بدون ترس جواب میدهد!
دسترسی راحتتر از همیشه به Grok AI در شبکه اجتماعی X
خبر خوب این است که دسترسی به Grok AI در شبکه اجتماعی X راحتتر از همیشه شده است. یعنی حالا دیگر Grok به صورت رایگان برای تمام کاربران ایکس در دسترس است و فقط مختص مشترکین پریمیوم نیست و این یک فرصت عالیه برای این است که ببینید این دستیار هوش مصنوعی چطور میتواند به شما کمک کند.
راهنمای شروع کار با Grok
برای شروع به کار با این ابزار باید ۴ تا مرحله ساده را طی کنید.
مرحله اول: وارد حساب X تان شوید:
برای استفاده از Grok، باید یک حساب کاربری در X داشته باشید. اگر دارید، فقط وارد آن شوید اما اگر حساب ندارید، نگران نباشید چراکه خیلی راحت و سریع میتوانید یک حساب جدید بسازید.
مرحله دوم: پیداکردن Grok
بعد از ورود به حساب X
در نسخه دسکتاپ، آیکون Grok را در منوی سمت چپ زیر پروفایل پیدا کنید.
در اپ ایکس نیز آیکون را در منوی پایین صفحه میتوانید پیدا کنید.
روی آیکون کلیک کنید تا وارد صفحه چتبات شوید و از امکاناتش استفاده کنید.
مرحله سوم: شروع چت
حالا که وارد Grok شدید، دانستن ۲ نکته کاربردی به شما در چت کمک میکند:
۱- محدودیت تعداد پیامها: کاربران رایگان میتوانند هر دو ساعت ۱۰ پیام ارسال کنند.
۲- محدودیت در تحلیل تصاویر: شما میتونید روزانه ۳ تصویر برای تحلیل آپلود کنید. فقط تصویر را آپلود کنید و سوالتان را از Grok بپرسید!
ادامه مطلب و تصاویر آموزشی:
https://tech.tavaana.org/digital-security/grok-ai/
#هوش_مصنوعی #گراک
@tavaanatech
سال ۲۰۲۴ شاهد پیشرفتهای چشمگیری در حوزه پزشکی بود و امیدهای تازهای را برای درمان بسیاری از بیماریها به همراه داشت.
ایمپلنت مغزی برای افراد دارای آسیب نخاعی
در ابتدای سال، "شرکت نیورالینک" متعلق به ایلان ماسک خبرساز شد. این شرکت موفق شد برای اولین بار یک تراشه مغزی بیسیم را به یک بیمار دچار آسیب نخاعی پیوند بزند. این فناوری به بیماران اجازه میدهد که تنها با افکار خود دستگاههای الکترونیکی را کنترل کنند. بهعنوان مثال، ویدئویی منتشر شد که بیمار با استفاده از ذهن خود نشانگر ماوس را در یک بازی شطرنج آنلاین حرکت میداد.
آموزش دوباره راه رفتن به افراد نیمه فلج
تیمی از محققان در شهر لوزان توانستند با استفاده از تحریک عمقی مغز، روند بهبودی آسیبهای نخاعی را تسریع کنند. اگر نخاع بهطور کامل قطع نشده باشد، بیماران میتوانند با تمرینهای شدید دوباره راه رفتن را بیاموزند. در این روش، الکترودهایی در مغز کاشته میشوند که با دستگاهی خارجی کنترل شده و نواحی خاصی از مغز را تحریک میکنند.
محافظت طولانیمدت در برابر اچآیوی با داروی "لناکاپاویر"
داروی جدیدی به نام "لناکاپاویر" توانسته برای مدت شش ماه از ابتلا به ویروس #اچآیوی جلوگیری کند. برخلاف قرصهای روزانه فعلی، این دارو بهصورت تزریقی استفاده میشود. در آزمایشهای بالینی، این دارو عملکردی بهتر از روشهای سنتی درمانی نشان داده است.
کاهش خطر آلزایمر با داروهای کاهش وزن
داروهایی مانند "اوزمپیک" (Ozempic)، که برای درمان دیابت و چاقی استفاده میشوند، میتوانند خطر ابتلا به آلزایمر را نیز کاهش دهند. این داروها با کاهش التهاب در مغز، احتمالاً به پیشگیری از آلزایمر کمک میکنند.
درمان دیابت نوع ۱ با استفاده از سلولهای بنیادی
درمانی جدید با استفاده از سلولهای بنیادی برای دیابت نوع ۱ در سال ۲۰۲۴ آزمایش شد. یک بیمار با دریافت سلولهای تولیدکننده انسولین که در آزمایشگاه پرورش یافته بودند، توانست چندین ماه بدون تزریق انسولین زندگی کند. با این حال، موفقیت این روش هنوز در مراحل اولیه است و مطالعات بیشتری برای تأیید کارایی آن نیاز است.
استفاده از هوش مصنوعی در رواندرمانی
مؤسسه مرکزی سلامت روان در مانهایم آلمان، یک اپلیکیشن مبتنی بر هوش مصنوعی توسعه داده است که میتواند به رواندرمانی کمک کند. این اپلیکیشن که با همکاری نوجوانان طراحی شده، تمرینها و توصیههایی برای بهبود سلامت روان ارائه میدهد. هدف اصلی این فناوری، کاهش خطر ابتلا به بیماریهای روانی در نوجوانان است.
(دویچهوله فارسی)
#اوزمپیک #هوش_مصنوعی
@tavaanatech
ایمپلنت مغزی برای افراد دارای آسیب نخاعی
در ابتدای سال، "شرکت نیورالینک" متعلق به ایلان ماسک خبرساز شد. این شرکت موفق شد برای اولین بار یک تراشه مغزی بیسیم را به یک بیمار دچار آسیب نخاعی پیوند بزند. این فناوری به بیماران اجازه میدهد که تنها با افکار خود دستگاههای الکترونیکی را کنترل کنند. بهعنوان مثال، ویدئویی منتشر شد که بیمار با استفاده از ذهن خود نشانگر ماوس را در یک بازی شطرنج آنلاین حرکت میداد.
آموزش دوباره راه رفتن به افراد نیمه فلج
تیمی از محققان در شهر لوزان توانستند با استفاده از تحریک عمقی مغز، روند بهبودی آسیبهای نخاعی را تسریع کنند. اگر نخاع بهطور کامل قطع نشده باشد، بیماران میتوانند با تمرینهای شدید دوباره راه رفتن را بیاموزند. در این روش، الکترودهایی در مغز کاشته میشوند که با دستگاهی خارجی کنترل شده و نواحی خاصی از مغز را تحریک میکنند.
محافظت طولانیمدت در برابر اچآیوی با داروی "لناکاپاویر"
داروی جدیدی به نام "لناکاپاویر" توانسته برای مدت شش ماه از ابتلا به ویروس #اچآیوی جلوگیری کند. برخلاف قرصهای روزانه فعلی، این دارو بهصورت تزریقی استفاده میشود. در آزمایشهای بالینی، این دارو عملکردی بهتر از روشهای سنتی درمانی نشان داده است.
کاهش خطر آلزایمر با داروهای کاهش وزن
داروهایی مانند "اوزمپیک" (Ozempic)، که برای درمان دیابت و چاقی استفاده میشوند، میتوانند خطر ابتلا به آلزایمر را نیز کاهش دهند. این داروها با کاهش التهاب در مغز، احتمالاً به پیشگیری از آلزایمر کمک میکنند.
درمان دیابت نوع ۱ با استفاده از سلولهای بنیادی
درمانی جدید با استفاده از سلولهای بنیادی برای دیابت نوع ۱ در سال ۲۰۲۴ آزمایش شد. یک بیمار با دریافت سلولهای تولیدکننده انسولین که در آزمایشگاه پرورش یافته بودند، توانست چندین ماه بدون تزریق انسولین زندگی کند. با این حال، موفقیت این روش هنوز در مراحل اولیه است و مطالعات بیشتری برای تأیید کارایی آن نیاز است.
استفاده از هوش مصنوعی در رواندرمانی
مؤسسه مرکزی سلامت روان در مانهایم آلمان، یک اپلیکیشن مبتنی بر هوش مصنوعی توسعه داده است که میتواند به رواندرمانی کمک کند. این اپلیکیشن که با همکاری نوجوانان طراحی شده، تمرینها و توصیههایی برای بهبود سلامت روان ارائه میدهد. هدف اصلی این فناوری، کاهش خطر ابتلا به بیماریهای روانی در نوجوانان است.
(دویچهوله فارسی)
#اوزمپیک #هوش_مصنوعی
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
چگونه: جلوگیری از جمعآوری اطلاعات توسط هوش مصنوعی Grok
در شبکه اجتماعیِ ایکس، به طور پیشفرض، این قابلیت که دادههای حساب ایکس شما برای آموزش سرویس هوش مصنوعی، جمعآوری شود، فعال است. اما شما میتوانید برای حفظ حریم خصوصی خود آن را غیرفعال کنید. برای چگونگی انجام این کار، این ویدیوی آموزشی کوتاه را ببینید.
یوتیوب:
https://www.youtube.com/watch?v=00fS7_svdLg
وبسایت:
https://tech.tavaana.org/digital-world/stop-grok-ai-collecting-information/
#هوش_مصنوعی #ایکس #چگونه
@tavaanatech
در شبکه اجتماعیِ ایکس، به طور پیشفرض، این قابلیت که دادههای حساب ایکس شما برای آموزش سرویس هوش مصنوعی، جمعآوری شود، فعال است. اما شما میتوانید برای حفظ حریم خصوصی خود آن را غیرفعال کنید. برای چگونگی انجام این کار، این ویدیوی آموزشی کوتاه را ببینید.
یوتیوب:
https://www.youtube.com/watch?v=00fS7_svdLg
وبسایت:
https://tech.tavaana.org/digital-world/stop-grok-ai-collecting-information/
#هوش_مصنوعی #ایکس #چگونه
@tavaanatech
شمارش خودکار اشیاء در تصاویر با اپلیکیشن CountThings from Photos
اپلیکیشن CountThings from Photos با استفاده از هوش مصنوعی و پردازش تصویر، فرآیند شمارش اشیاء در تصاویر را بهطور چشمگیری ساده و سریع میکند.
این برنامه با دقت بالا و قابلیت سفارشیسازی برای الگوهای مختلف، در صنایعی مانند تولید، انبارداری، کشاورزی و تحقیقات علمی کاربرد دارد. مزیت اصلی آن کاهش خطای انسانی و صرفهجویی در زمان است که به بهبود بهرهوری کمک میکند.
#فناوری #هوش_مصنوعی
@tavaanatech
اپلیکیشن CountThings from Photos با استفاده از هوش مصنوعی و پردازش تصویر، فرآیند شمارش اشیاء در تصاویر را بهطور چشمگیری ساده و سریع میکند.
این برنامه با دقت بالا و قابلیت سفارشیسازی برای الگوهای مختلف، در صنایعی مانند تولید، انبارداری، کشاورزی و تحقیقات علمی کاربرد دارد. مزیت اصلی آن کاهش خطای انسانی و صرفهجویی در زمان است که به بهبود بهرهوری کمک میکند.
#فناوری #هوش_مصنوعی
@tavaanatech
آفتابهچیهای هوشمند
علیرضا اعرافی، مدیر حوزههای علمیه، اعلام کرد که حدود ۱۰۰ نفر از حوزویان و دانشگاهیان تحصیلکرده در پروژهای کلان در زمینه هوش مصنوعی فعالیت میکنند. وی تأکید کرد که این پروژه تحت نظارت مستقیم او انجام میشود و ورود حوزه به هوش مصنوعی را قلمرویی جدید دانست.
طرح: از شاهرخ حیدری
وبسایت تواناتک:
tech.tavaana.org
#هوش_مصنوعی #کارتون
علیرضا اعرافی، مدیر حوزههای علمیه، اعلام کرد که حدود ۱۰۰ نفر از حوزویان و دانشگاهیان تحصیلکرده در پروژهای کلان در زمینه هوش مصنوعی فعالیت میکنند. وی تأکید کرد که این پروژه تحت نظارت مستقیم او انجام میشود و ورود حوزه به هوش مصنوعی را قلمرویی جدید دانست.
طرح: از شاهرخ حیدری
وبسایت تواناتک:
tech.tavaana.org
#هوش_مصنوعی #کارتون
Media is too big
VIEW IN TELEGRAM
ویدئو جالبی از تجهیزات مدرن پلیس کشور امارات متحده عربی
خودروهای SUV که محصول شرکت W Motors هستند. با نام «خودرو گشت هوشمند غیاث- Ghiath » شناخته میشوند که با تجهیزات جالب توجه وظیفه ایجاد امنیت را در این کشور به عهده دارند.
این خودروها مجهز به ۱۰ نوع دوربین هستند که برخی از این دوربینها میتوانند پردازش با کمک هوش مصنوعی را انجام دهند.
برای مثال میتوان در آینده، الگوریتمهای بیشتری از هوش مصنوعی را به آن اضافه کرد.
(وقتی دوربینهای بیشتری وجود دارد، میتوان دادههای بیشتری را جمع آوری و پردازش کرد. این در حقیقت یکی از این مزیتهای این خودروها به شمار میآید.)
یکی دیگر از ویژگیهای خاص خودروهای غیاث، وجود صفحه یک نمایش بزرگ در سمت راست داشبورد است. این صفحه هنگام مشاهده پلاک خودروهای "تحت تعقیب"، هشدارهای لازم را به پلیس نمایش میدهد.
جالبه بدانید که حدود ۳۰ درصد از قطعات داخلی و خارجی این خودروها توسط پرینتر سه بعدی تهیه شده است.
همچنین وجود یک کامپیوتر قدرتمند داخلی که به مرکز فرماندهی و کنترل پلیس دبی مرتبط است، میتواند هر حادثهای را که در منطقه اتفاق میافتد نشان دهد.
#تکنولوژی #هوش_مصنوعی #پلیس #امارات
@tavaanatech
خودروهای SUV که محصول شرکت W Motors هستند. با نام «خودرو گشت هوشمند غیاث- Ghiath » شناخته میشوند که با تجهیزات جالب توجه وظیفه ایجاد امنیت را در این کشور به عهده دارند.
این خودروها مجهز به ۱۰ نوع دوربین هستند که برخی از این دوربینها میتوانند پردازش با کمک هوش مصنوعی را انجام دهند.
برای مثال میتوان در آینده، الگوریتمهای بیشتری از هوش مصنوعی را به آن اضافه کرد.
(وقتی دوربینهای بیشتری وجود دارد، میتوان دادههای بیشتری را جمع آوری و پردازش کرد. این در حقیقت یکی از این مزیتهای این خودروها به شمار میآید.)
یکی دیگر از ویژگیهای خاص خودروهای غیاث، وجود صفحه یک نمایش بزرگ در سمت راست داشبورد است. این صفحه هنگام مشاهده پلاک خودروهای "تحت تعقیب"، هشدارهای لازم را به پلیس نمایش میدهد.
جالبه بدانید که حدود ۳۰ درصد از قطعات داخلی و خارجی این خودروها توسط پرینتر سه بعدی تهیه شده است.
همچنین وجود یک کامپیوتر قدرتمند داخلی که به مرکز فرماندهی و کنترل پلیس دبی مرتبط است، میتواند هر حادثهای را که در منطقه اتفاق میافتد نشان دهد.
#تکنولوژی #هوش_مصنوعی #پلیس #امارات
@tavaanatech
به گفته پلیس لاسوگاس، متیو لیولزبرگر، سرباز وظیفه یگان ویژه ارتش آمریکا، که هفته گذشته یک خودروی سایبرتراک تسلا را در مقابل هتل ترامپ در لاسوگاس منفجر کرد، از هوش مصنوعی ChatGPT برای برنامهریزی این انفجار استفاده کرده است.
براساس اطلاعات منتشرشده از سوی پلیس، لیولزبرگر چند روز پیش از انفجار، پرسشهایی از ChatGPT مطرح کرده بود؛ از جمله درباره مواد منفجره، روشهای انفجار آنها، نحوه انفجار با شلیک گلوله، و همچنین خرید قانونی اسلحه و مواد منفجره در طول مسیر سفرش.
سخنگوی OpenAI، شرکت سازنده ChatGPT، در بیانیهای اعلام کرد:
«ما از این حادثه متاسفیم و متعهد هستیم که از ابزارهای هوش مصنوعی بهصورت مسئولانه استفاده شود. مدلهای ما برای رد دستورالعملهای مضر و به حداقل رساندن محتوای مضر طراحی شدهاند. در این مورد، ChatGPT با اطلاعاتی که قبلاً بهصورت عمومی در اینترنت موجود بود، پاسخ داد و هشدارهایی علیه فعالیتهای مخرب یا غیرقانونی ارائه کرد. ما با پلیس همکاری میکنیم.»
#تسلا #سایبرتراک #هوش_مصنوعی #ChatGPT
@tavaanatech
براساس اطلاعات منتشرشده از سوی پلیس، لیولزبرگر چند روز پیش از انفجار، پرسشهایی از ChatGPT مطرح کرده بود؛ از جمله درباره مواد منفجره، روشهای انفجار آنها، نحوه انفجار با شلیک گلوله، و همچنین خرید قانونی اسلحه و مواد منفجره در طول مسیر سفرش.
سخنگوی OpenAI، شرکت سازنده ChatGPT، در بیانیهای اعلام کرد:
«ما از این حادثه متاسفیم و متعهد هستیم که از ابزارهای هوش مصنوعی بهصورت مسئولانه استفاده شود. مدلهای ما برای رد دستورالعملهای مضر و به حداقل رساندن محتوای مضر طراحی شدهاند. در این مورد، ChatGPT با اطلاعاتی که قبلاً بهصورت عمومی در اینترنت موجود بود، پاسخ داد و هشدارهایی علیه فعالیتهای مخرب یا غیرقانونی ارائه کرد. ما با پلیس همکاری میکنیم.»
#تسلا #سایبرتراک #هوش_مصنوعی #ChatGPT
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
ویدئویی که با استفاده از هوش مصنوعی تولید شده و به عنوان حادثه آتشسوزی شهر لسآنجلس در حال انتشار است.
#جعلی #هوش_مصنوعی
@tavaanatech
#جعلی #هوش_مصنوعی
@tavaanatech
مهارت در هوش مصنوعی، فناوری دیجیتال و انرژیهای نو راز موفقیت مشاغل آینده است
بر اساس جدیدترین گزارش مجمع جهانی اقتصاد، با عنوان «گزارش آینده مشاغل مجمع جهانی اقتصاد در سال 2025» انتظار میرود که افزایش دسترسی دیجیتال، بیش از هر روند کلان دیگری، بر مشاغل تأثیر بگذارد.
این دسترسی دیجیتالی رو به رشد یک عامل حیاتی برای فناوریهای جدید است که میتواند بازارهای کار را متحول کند. به طور خاص سه فناوری قرار است بیشترین تأثیر را داشته باشند:
روباتها و اتوماسیون؛
فناوری تولید و ذخیره انرژی؛
و هوش مصنوعی و پردازش اطلاعات.
بر اساس این گزارش سه شغلی که سریعترین رشد را از نظر درصدی دارند:
متخصصان کلان داده، مهندسان فینتک و متخصصان هوش مصنوعی و یادگیری ماشین هستند.
86 درصد از پاسخ دهندگان به یک نظرسنجی انتظار داشتند که هوش مصنوعی و فناوریهای پردازش اطلاعات تا سال 2030 تجارت آنها را متحول کند.
توسعهدهندگان نرمافزار و برنامههای کاربردی در رتبه چهار هستند و متخصصان مدیریت امنیت در رتبه پنج.
گذار سبز و پذیرش فناوریهای تولید و ذخیرهسازی انرژی، مشاغلی مانند متخصصان خودروهای خودران و الکتریکی و مهندسان محیطزیست و انرژیهای تجدیدپذیر را در میان ۱۵ حرفهای قرار داده است که سریعترین رشد را دارند.
این گزارش میگوید انتظار میرود افزایش دسترسی دیجیتال تا سال 2030 باعث ایجاد 19 میلیون شغل و جایگزینی 9 میلیون شغل شود. هوش مصنوعی و پردازش داده به تنهایی 11 میلیون شغل ایجاد میکند و جایگزین 9 میلیون شغل قبلی میشود.
پیشبینی میشود که رباتها و اتوماسیون، 5 میلیون شغل بیشتر از مشاغلی که ایجاد میکنند، جابهجا کنند.
کسبوکارها انتظار دارند که این روندها باعث سقوط شدید برخی مشاغل شود، از جمله نقشهای مختلف دفتری، مانند صندوقداری و کارمند فروش بلیط، همچنین دستیاران اداری، کارگران چاپ و حسابداران و حسابرسان.
بر اساس این گزارش 39 درصد از مهارتهای کلیدی کارگران تا سال 2030 تغییر میکند و پیشبینی میشود که مهارتهای فنی در پنج سال آینده با سرعت بیشتری نسبت به سایر مهارتهای دیگر اهمیت پیدا کند.
به این ترتیب، برنامههای یادگیری مستمر، ارتقاء مهارت و کسب مهارت مجدد از هم اکنون تا پایان دهه یک اولویت مستمر برای کارفرمایان خواهد بود.
(فاطمه لطفی، روزنامهنگار)
#هوش_مصنوعی #فناوری
@tavaanatech
بر اساس جدیدترین گزارش مجمع جهانی اقتصاد، با عنوان «گزارش آینده مشاغل مجمع جهانی اقتصاد در سال 2025» انتظار میرود که افزایش دسترسی دیجیتال، بیش از هر روند کلان دیگری، بر مشاغل تأثیر بگذارد.
این دسترسی دیجیتالی رو به رشد یک عامل حیاتی برای فناوریهای جدید است که میتواند بازارهای کار را متحول کند. به طور خاص سه فناوری قرار است بیشترین تأثیر را داشته باشند:
روباتها و اتوماسیون؛
فناوری تولید و ذخیره انرژی؛
و هوش مصنوعی و پردازش اطلاعات.
بر اساس این گزارش سه شغلی که سریعترین رشد را از نظر درصدی دارند:
متخصصان کلان داده، مهندسان فینتک و متخصصان هوش مصنوعی و یادگیری ماشین هستند.
86 درصد از پاسخ دهندگان به یک نظرسنجی انتظار داشتند که هوش مصنوعی و فناوریهای پردازش اطلاعات تا سال 2030 تجارت آنها را متحول کند.
توسعهدهندگان نرمافزار و برنامههای کاربردی در رتبه چهار هستند و متخصصان مدیریت امنیت در رتبه پنج.
گذار سبز و پذیرش فناوریهای تولید و ذخیرهسازی انرژی، مشاغلی مانند متخصصان خودروهای خودران و الکتریکی و مهندسان محیطزیست و انرژیهای تجدیدپذیر را در میان ۱۵ حرفهای قرار داده است که سریعترین رشد را دارند.
این گزارش میگوید انتظار میرود افزایش دسترسی دیجیتال تا سال 2030 باعث ایجاد 19 میلیون شغل و جایگزینی 9 میلیون شغل شود. هوش مصنوعی و پردازش داده به تنهایی 11 میلیون شغل ایجاد میکند و جایگزین 9 میلیون شغل قبلی میشود.
پیشبینی میشود که رباتها و اتوماسیون، 5 میلیون شغل بیشتر از مشاغلی که ایجاد میکنند، جابهجا کنند.
کسبوکارها انتظار دارند که این روندها باعث سقوط شدید برخی مشاغل شود، از جمله نقشهای مختلف دفتری، مانند صندوقداری و کارمند فروش بلیط، همچنین دستیاران اداری، کارگران چاپ و حسابداران و حسابرسان.
بر اساس این گزارش 39 درصد از مهارتهای کلیدی کارگران تا سال 2030 تغییر میکند و پیشبینی میشود که مهارتهای فنی در پنج سال آینده با سرعت بیشتری نسبت به سایر مهارتهای دیگر اهمیت پیدا کند.
به این ترتیب، برنامههای یادگیری مستمر، ارتقاء مهارت و کسب مهارت مجدد از هم اکنون تا پایان دهه یک اولویت مستمر برای کارفرمایان خواهد بود.
(فاطمه لطفی، روزنامهنگار)
#هوش_مصنوعی #فناوری
@tavaanatech
دولت آمریکا در آخرین روزهای ریاست جمهوری جو بایدن برای دشوار کردن دسترسی چین و سایر رقبا به فناوریهای پیشرفته، محدودیتهای بیشتری در زمینه صادرات ریزتراشه هوش مصنوعی وضع کرد.
محدودیتهای جدید که روز دوشنبه ۲۴ دی اعلام شد ادامه و توسعه اولین مجموعه محدودیتهای صادرات ریزتراشه هوش مصنوعی به چین است که سال ۲۰۲۳ به اجرا گذاشته شد.
در سالهای اخیر همزمان با افزایش نگرانی آمريکا در مورد پیشرفت سریع چین در عرصه فناوریهای بسیار پیشرفته، واشینگتن صادرات پیشرفتهترین ریزتراشهها به چین را که می تواند در فناوری هوش مصنوعی به کار گرفته شود به شدت محدود کرده است.
جینا ریموندو، وزیر بازرگانی ایالات متحده، به خبرنگاران گفت:«در حال حاضر آمریکا در زمینه توسعه فناوری هوش مصنوعی و تولید ریزتراشههای مورد نیاز این فناوری پیشرو است و حفظ این برتری اهمیت حیاتی دارد.»
بر اساس مصوبه جدید دولت آمریکا، مقررات قبلی در مورد کنترل صادرات ریزتراشه و بازفروش و صادرات مجدد آن توسط کشورهای ثالث روزآمد میشود و در عین حال استثناهایی نيز برای صادرات این کالاها به کشورهای دوست در نظر گرفته شده است.
همه تولید کنندگان ریزتراشه در آمریکا موظف خواهند شد از مقررات امنیتی ناظر بر تشدید محدودیتهای صادراتی تبعیت کنند.
(مطلب خلاصهشده از وبسایت رادیو فردا)
#هوش_مصنوعی #آمریکا
@tavaanatech
محدودیتهای جدید که روز دوشنبه ۲۴ دی اعلام شد ادامه و توسعه اولین مجموعه محدودیتهای صادرات ریزتراشه هوش مصنوعی به چین است که سال ۲۰۲۳ به اجرا گذاشته شد.
در سالهای اخیر همزمان با افزایش نگرانی آمريکا در مورد پیشرفت سریع چین در عرصه فناوریهای بسیار پیشرفته، واشینگتن صادرات پیشرفتهترین ریزتراشهها به چین را که می تواند در فناوری هوش مصنوعی به کار گرفته شود به شدت محدود کرده است.
جینا ریموندو، وزیر بازرگانی ایالات متحده، به خبرنگاران گفت:«در حال حاضر آمریکا در زمینه توسعه فناوری هوش مصنوعی و تولید ریزتراشههای مورد نیاز این فناوری پیشرو است و حفظ این برتری اهمیت حیاتی دارد.»
بر اساس مصوبه جدید دولت آمریکا، مقررات قبلی در مورد کنترل صادرات ریزتراشه و بازفروش و صادرات مجدد آن توسط کشورهای ثالث روزآمد میشود و در عین حال استثناهایی نيز برای صادرات این کالاها به کشورهای دوست در نظر گرفته شده است.
همه تولید کنندگان ریزتراشه در آمریکا موظف خواهند شد از مقررات امنیتی ناظر بر تشدید محدودیتهای صادراتی تبعیت کنند.
(مطلب خلاصهشده از وبسایت رادیو فردا)
#هوش_مصنوعی #آمریکا
@tavaanatech
وبسایت مستقل هوش مصنوعی Grok معرفی شد
پس از عرضه اپلیکیشن Grok برای سیستم عامل iOS، اکنون نسخه تحت وب این هوش مصنوعی نیز بهطور رسمی معرفی شده است. با این حال، در حال حاضر امکان دسترسی به آن به صورت جداگانه از شبکه اجتماعی ایکس فراهم نیست. به زودی کاربران میتوانند از طریق وبسایت https://grok.com به این هوش مصنوعی دسترسی پیدا کنند.
#گراک #هوش_مصنوعی
@tavaanatech
پس از عرضه اپلیکیشن Grok برای سیستم عامل iOS، اکنون نسخه تحت وب این هوش مصنوعی نیز بهطور رسمی معرفی شده است. با این حال، در حال حاضر امکان دسترسی به آن به صورت جداگانه از شبکه اجتماعی ایکس فراهم نیست. به زودی کاربران میتوانند از طریق وبسایت https://grok.com به این هوش مصنوعی دسترسی پیدا کنند.
#گراک #هوش_مصنوعی
@tavaanatech
هوش مصنوعی (AI) به سرعت در حال تحول است و در بخشهای گوناگون زندگی انسانها حضور یافته.هر روز خبرهای مختلفی در مورد پیشرفت برنامههای هوش مصنوعی و ظهور برنامههای جدید میخوانیم که وعده میدهند کارهای وقتگیر دیروز را در زمان بسیار کوتاه انجام بدهند و چه بسا بسیار بهتر.
اما به تازگی آنچه که در حال حاضر نگرانیهایی جدی ایجاد کرده، ظهور برنامههای هوش مصنوعی است که میتوانند ویدیوهایی از بوسههای ساختگی بسازند. این برنامهها به کاربران این امکان را میدهند که با بارگذاری عکسهای دو نفر، هوش مصنوعی آنها را به ویدیوهای ساختگی تبدیل کند که در آن افراد در حال بوسیدن یکدیگر هستند. در حالی که ممکن است این برنامهها به نظر سرگرمکننده و بیضرر بیایند، اما خطرات و پیامدهای جدی و گستردهای در پی دارند.
این اپلیکیشنها به گونهای طراحی شدهاند که کاربران بدون نیاز به رضایت فرد مقابل میتوانند هر کسی را که میخواهند، در یک ویدیوی بوسه ببیند. این یعنی هیچگونه نظارت و اجازهای از سوی شخص مورد نظر در کار نیست و حتی ممکن است تصاویر و ویدیوهای افراد مشهور یا اشخاص معمولی مورد سوءاستفاده قرار گیرد. چنین اپلیکیشنهایی به شدت شبیه به برنامههای «هوش مصنوعی برهنهسازی» (AI nudifier) هستند که محتوای غیرمجاز و پورنوگرافی تولید میکنند، با این تفاوت که به جای تصاویر جنسی، در این برنامهها ویدیوهای بوسه تولید میشود که بهطور واضح نقض حریم خصوصی و حقوق افراد است.
چرا این روند خطرناک است؟
بسیاری از این برنامهها به کاربران این وعده را میدهند که میتوانند «هر کسی را که میخواهید ببوسید» یا «عشق سابق خود را دوباره ببوسید». چنین وعدههایی به ظاهر بیضرر به نظر میرسند، اما از آنجا که افراد در این ویدیوها بهطور مصنوعی در حال انجام کارهایی هستند که در واقعیت انجام ندادهاند، این برنامهها بهطور جدی به حریم خصوصی و حقوق انسانها آسیب میزنند. علاوه بر این، استفاده از این فناوریها میتواند به عادیسازی و گسترش محتوای دیپفیک (deepfake) و تصاویر ساختگی خطرناک منجر شود که با استفاده از آن میتوان محتوای زیانبارتری مانند پورنوگرافی یا تصاویر سوءاستفادهآمیز جنسی تولید کرد.
تکنولوژیهای دیپفیک به گونهای کار میکنند که تصاویر یا ویدیوهای ساختهشده بسیار واقعی به نظر میرسند و به راحتی میتوان آنها را در دنیای دیجیتال پخش کرد. این تصاویر میتوانند به سرعت در شبکههای اجتماعی منتشر شوند و بهراحتی آسیبهای جبرانناپذیری به افراد وارد کنند. به گفته هالی مکنامارا، مدیر اجرایی مرکز ملی بهرهبرداری جنسی (National Center for Sexual Exploitation)، «این برنامهها حتی اگر محتوای جنسی نداشته باشند، هنوز هم میتوانند بسیار آسیبزا و غیر اخلاقی باشند.»
گسترش تبلیغات این برنامهها: خطرات بیشتر برای کاربران
این اپلیکیشنها اکنون در سطح جهانی در حال تبلیغ هستند. بهطور خاص، پلتفرمهای اجتماعی مانند Meta (مالکیت Instagram و Facebook) و TikTok هزاران تبلیغ برای این برنامهها منتشر کردهاند. در این تبلیغات، معمولاً ویدیوهایی از افراد مشهور مانند اسکارلت جوهانسون، اما واتسون و گل گادوت دیده میشوند. حتی برخی از این تبلیغات شامل ویدیوهای ساختگی از افراد تصادفی است که در آنها وعده داده میشود میتوانید «از عشق سابق خود بوسه بگیرید» یا «در خیالپردازیهایتان کسی را که میخواهید ببوسید.» این تبلیغات بدون هیچگونه نظارت و با استفاده از تصاویر و ویدیوهای ساختهشده توسط هوش مصنوعی منتشر میشوند.
طبق بررسیهای انجامشده، شرکت Meta بیش از ۲۵۰۰ تبلیغ برای این برنامهها منتشر کرده است و حدود ۱۰۰۰ مورد از این تبلیغات هنوز هم فعال هستند. TikTok نیز مشابه همین روند را دنبال کرده و در کشورهای اروپایی حدود ۱۰۰۰ تبلیغ از این برنامهها به کاربران نشان داده است. نکته نگرانکننده این است که این تبلیغات بیشتر از آنکه بر مسائل اخلاقی یا آگاهیدهنده تمرکز کنند، بهطور مستقیم یا غیرمستقیم هنجارهای اجتماعی و اخلاقی را نقض کرده و از تصاویر واقعی افراد برای ایجاد تصاویر و ویدیوهای غیرواقعی استفاده میکنند.
محتوای ساختگی در حال گسترش است: چه پیامدهایی دارد؟
گسترش و رواج این ویدیوهای ساختگی از افراد مشهور و حتی افراد معمولی، بهطور جدی نگرانکننده است. این ویدیوها به راحتی میتوانند در شبکههای اجتماعی منتشر شوند و بهطور گسترده توسط کاربران دیگر پخش شوند. این روند نه تنها به معنای نقض حریم خصوصی افراد است، بلکه میتواند بهطور جدی امنیت روانی و اجتماعی افراد را تهدید کند.
(خلاصهشده از وبسایت یکپزشک)
#هوش_مصنوعی #حریم_خصوصی
@tavaanatech
اما به تازگی آنچه که در حال حاضر نگرانیهایی جدی ایجاد کرده، ظهور برنامههای هوش مصنوعی است که میتوانند ویدیوهایی از بوسههای ساختگی بسازند. این برنامهها به کاربران این امکان را میدهند که با بارگذاری عکسهای دو نفر، هوش مصنوعی آنها را به ویدیوهای ساختگی تبدیل کند که در آن افراد در حال بوسیدن یکدیگر هستند. در حالی که ممکن است این برنامهها به نظر سرگرمکننده و بیضرر بیایند، اما خطرات و پیامدهای جدی و گستردهای در پی دارند.
این اپلیکیشنها به گونهای طراحی شدهاند که کاربران بدون نیاز به رضایت فرد مقابل میتوانند هر کسی را که میخواهند، در یک ویدیوی بوسه ببیند. این یعنی هیچگونه نظارت و اجازهای از سوی شخص مورد نظر در کار نیست و حتی ممکن است تصاویر و ویدیوهای افراد مشهور یا اشخاص معمولی مورد سوءاستفاده قرار گیرد. چنین اپلیکیشنهایی به شدت شبیه به برنامههای «هوش مصنوعی برهنهسازی» (AI nudifier) هستند که محتوای غیرمجاز و پورنوگرافی تولید میکنند، با این تفاوت که به جای تصاویر جنسی، در این برنامهها ویدیوهای بوسه تولید میشود که بهطور واضح نقض حریم خصوصی و حقوق افراد است.
چرا این روند خطرناک است؟
بسیاری از این برنامهها به کاربران این وعده را میدهند که میتوانند «هر کسی را که میخواهید ببوسید» یا «عشق سابق خود را دوباره ببوسید». چنین وعدههایی به ظاهر بیضرر به نظر میرسند، اما از آنجا که افراد در این ویدیوها بهطور مصنوعی در حال انجام کارهایی هستند که در واقعیت انجام ندادهاند، این برنامهها بهطور جدی به حریم خصوصی و حقوق انسانها آسیب میزنند. علاوه بر این، استفاده از این فناوریها میتواند به عادیسازی و گسترش محتوای دیپفیک (deepfake) و تصاویر ساختگی خطرناک منجر شود که با استفاده از آن میتوان محتوای زیانبارتری مانند پورنوگرافی یا تصاویر سوءاستفادهآمیز جنسی تولید کرد.
تکنولوژیهای دیپفیک به گونهای کار میکنند که تصاویر یا ویدیوهای ساختهشده بسیار واقعی به نظر میرسند و به راحتی میتوان آنها را در دنیای دیجیتال پخش کرد. این تصاویر میتوانند به سرعت در شبکههای اجتماعی منتشر شوند و بهراحتی آسیبهای جبرانناپذیری به افراد وارد کنند. به گفته هالی مکنامارا، مدیر اجرایی مرکز ملی بهرهبرداری جنسی (National Center for Sexual Exploitation)، «این برنامهها حتی اگر محتوای جنسی نداشته باشند، هنوز هم میتوانند بسیار آسیبزا و غیر اخلاقی باشند.»
گسترش تبلیغات این برنامهها: خطرات بیشتر برای کاربران
این اپلیکیشنها اکنون در سطح جهانی در حال تبلیغ هستند. بهطور خاص، پلتفرمهای اجتماعی مانند Meta (مالکیت Instagram و Facebook) و TikTok هزاران تبلیغ برای این برنامهها منتشر کردهاند. در این تبلیغات، معمولاً ویدیوهایی از افراد مشهور مانند اسکارلت جوهانسون، اما واتسون و گل گادوت دیده میشوند. حتی برخی از این تبلیغات شامل ویدیوهای ساختگی از افراد تصادفی است که در آنها وعده داده میشود میتوانید «از عشق سابق خود بوسه بگیرید» یا «در خیالپردازیهایتان کسی را که میخواهید ببوسید.» این تبلیغات بدون هیچگونه نظارت و با استفاده از تصاویر و ویدیوهای ساختهشده توسط هوش مصنوعی منتشر میشوند.
طبق بررسیهای انجامشده، شرکت Meta بیش از ۲۵۰۰ تبلیغ برای این برنامهها منتشر کرده است و حدود ۱۰۰۰ مورد از این تبلیغات هنوز هم فعال هستند. TikTok نیز مشابه همین روند را دنبال کرده و در کشورهای اروپایی حدود ۱۰۰۰ تبلیغ از این برنامهها به کاربران نشان داده است. نکته نگرانکننده این است که این تبلیغات بیشتر از آنکه بر مسائل اخلاقی یا آگاهیدهنده تمرکز کنند، بهطور مستقیم یا غیرمستقیم هنجارهای اجتماعی و اخلاقی را نقض کرده و از تصاویر واقعی افراد برای ایجاد تصاویر و ویدیوهای غیرواقعی استفاده میکنند.
محتوای ساختگی در حال گسترش است: چه پیامدهایی دارد؟
گسترش و رواج این ویدیوهای ساختگی از افراد مشهور و حتی افراد معمولی، بهطور جدی نگرانکننده است. این ویدیوها به راحتی میتوانند در شبکههای اجتماعی منتشر شوند و بهطور گسترده توسط کاربران دیگر پخش شوند. این روند نه تنها به معنای نقض حریم خصوصی افراد است، بلکه میتواند بهطور جدی امنیت روانی و اجتماعی افراد را تهدید کند.
(خلاصهشده از وبسایت یکپزشک)
#هوش_مصنوعی #حریم_خصوصی
@tavaanatech
مارک زاکربرگ، مدیرعامل متا، سال ۲۰۲۵ را «سالی سرنوشتساز برای هوش مصنوعی» توصیف کرده و اعلام کرده است که این شرکت قصد دارد در سال جاری بین ۶۰ تا ۶۵ میلیارد دلار برای توسعه هوش مصنوعی سرمایهگذاری کند.
زاکربرگ این خبر را در پستی که در شبکه اجتماعی تردز منتشر کرده، به اشتراک گذاشته است. او همچنین به یکی از بخشهای کلیدی این برنامه اشاره کرده که شامل احداث یک مرکز داده در ایالت لوئیزیانا است. به گفته او، این مرکز داده به اندازهای گسترده خواهد بود که میتواند بخش قابلتوجهی از منطقه منهتن را پوشش دهد.
#هوش_مصنوعی #متا
@tavaanatech
زاکربرگ این خبر را در پستی که در شبکه اجتماعی تردز منتشر کرده، به اشتراک گذاشته است. او همچنین به یکی از بخشهای کلیدی این برنامه اشاره کرده که شامل احداث یک مرکز داده در ایالت لوئیزیانا است. به گفته او، این مرکز داده به اندازهای گسترده خواهد بود که میتواند بخش قابلتوجهی از منطقه منهتن را پوشش دهد.
#هوش_مصنوعی #متا
@tavaanatech
ما یه چیزی داریم بالاتر از حریمخصوصی اونم امنیت مدل هست، یعنی شما اولویتت اینه که دیتاهاتون کف اینترنت پخش نشن. شرکتهای بزرگ مثل گوگل و OpenAI براش خیلی هزینه میکنن، دیپسیک اما به خاطر هزینهها برنامهای برای امنیت نداره.
رفتار با دیتای کاربر یه بخش مهم حریمخصوصی به حساب میاد و دیپسیک دقیق نمیگه، میگه که ما دیتاهای شمارو (نمیگه چه دیتایی) تا وقتی لازم باشه رو سرورهای چین نگهداری میکنیم.
خب OpenAI میگه هرچیزی که پاککنی (چتها یا دیلیت اکانت) فقط تا ۹۰ روز دیتاشو نگهداری میکنیم (غیر تراکنش)
یه توضیح دیگه هم OpenAI میده و میگه بعد این ۹۰ روز ما چتهارو برای train نگهداری میکنیم ولی نه با نام شما.
ولی میتونی درخواست بدی و بگی از چتهای من برای تمرین مدل استفاده نشه که بعد از درخواست جوابش رو تو همین بخش بهت نشون میدن
بعضیها میگن اگه deepseek مشکل حریمخصوصی داره پس چرا استفاده کنیم.
۱. مدلهاش اوپنسورس هستن، میتونید یه سرور GPU اجاره کنید یا روی یه سیستم خوب مدل رو ران کنید.
۲. مدل خوبی هست، یه سری نکات رو رعایت کنید میشه ازش استفاده کرد
اگه از Deepseek استفاده میکنید برای حریمخصوصی خودتون چند نکته رو رعایت کنید.
۱. برای عضویت یه ایمیل ناشناس جدید بسازید.
۲. دیتا و اطلاعات حساس بهش ندید، هرچیزی بهش میدید فکر کنید با دولت چین لحظهای سینک میشه.
۳. درسته فیلتر و تحریم نیست ولی بهتره با VPN باهاش کار کنید.
-سروش احمدی
#هوش_مصنوعی
#ChatGPT #deepseek
@tavaanatech
رفتار با دیتای کاربر یه بخش مهم حریمخصوصی به حساب میاد و دیپسیک دقیق نمیگه، میگه که ما دیتاهای شمارو (نمیگه چه دیتایی) تا وقتی لازم باشه رو سرورهای چین نگهداری میکنیم.
خب OpenAI میگه هرچیزی که پاککنی (چتها یا دیلیت اکانت) فقط تا ۹۰ روز دیتاشو نگهداری میکنیم (غیر تراکنش)
یه توضیح دیگه هم OpenAI میده و میگه بعد این ۹۰ روز ما چتهارو برای train نگهداری میکنیم ولی نه با نام شما.
ولی میتونی درخواست بدی و بگی از چتهای من برای تمرین مدل استفاده نشه که بعد از درخواست جوابش رو تو همین بخش بهت نشون میدن
بعضیها میگن اگه deepseek مشکل حریمخصوصی داره پس چرا استفاده کنیم.
۱. مدلهاش اوپنسورس هستن، میتونید یه سرور GPU اجاره کنید یا روی یه سیستم خوب مدل رو ران کنید.
۲. مدل خوبی هست، یه سری نکات رو رعایت کنید میشه ازش استفاده کرد
اگه از Deepseek استفاده میکنید برای حریمخصوصی خودتون چند نکته رو رعایت کنید.
۱. برای عضویت یه ایمیل ناشناس جدید بسازید.
۲. دیتا و اطلاعات حساس بهش ندید، هرچیزی بهش میدید فکر کنید با دولت چین لحظهای سینک میشه.
۳. درسته فیلتر و تحریم نیست ولی بهتره با VPN باهاش کار کنید.
-سروش احمدی
#هوش_مصنوعی
#ChatGPT #deepseek
@tavaanatech
محسن اراکی، عضو مجلس خبرگان، با تاکید بر لزوم بررسی فقهی و قانونی استفاده از هوش مصنوعی گفت: «این ابزار هرچه دقیق باشد و بتواند به نتایج مثبت و دقیق دست یابد، اما مسئولیتپذیر و پاسخگو نخواهد بود. مدیریت آن باید بر عقلها و دستهای کاربر اعمال شود.»
اظهارات محسن اراکی دستمایه طنز کاربران شبکههای اجتماعی شده است.
یکی از همراهان تواناتک با ارسال لینک این خبر نوشته است:
«آیا مشکل از هوش مصنوعی است یا نگاه کنترلمحور به فناوری؟
واقعیت: هوش مصنوعی ابزاری است که عملکرد آن به دادهها و الگوریتمهای انسانی وابسته است.
چالش اصلی: بهجای محدودیتهای غیرکارشناسی، باید قوانین شفاف و تخصصی تدوین شود.
نتیجه: کشورهای پیشرفته در حال استفاده از این فرصت هستند، اما در ایران همچنان بر «کنترل» تأکید میشود.
ترس از فناوری، آینده را از ما خواهد گرفت.»
#هوش_مصنوعی #فضای_مجازی
@tavaanatech
اظهارات محسن اراکی دستمایه طنز کاربران شبکههای اجتماعی شده است.
یکی از همراهان تواناتک با ارسال لینک این خبر نوشته است:
«آیا مشکل از هوش مصنوعی است یا نگاه کنترلمحور به فناوری؟
واقعیت: هوش مصنوعی ابزاری است که عملکرد آن به دادهها و الگوریتمهای انسانی وابسته است.
چالش اصلی: بهجای محدودیتهای غیرکارشناسی، باید قوانین شفاف و تخصصی تدوین شود.
نتیجه: کشورهای پیشرفته در حال استفاده از این فرصت هستند، اما در ایران همچنان بر «کنترل» تأکید میشود.
ترس از فناوری، آینده را از ما خواهد گرفت.»
#هوش_مصنوعی #فضای_مجازی
@tavaanatech
محمدرضا حسنی آهنگر، فرمانده دانشگاه جامع «امام حسین» در همایش «هوش مصنوعی و تمدن آینده» گفت میتوان هوش مصنوعی را در منطقه صفر زمانی و مکانی مبتنی بر تعهد اخلاقی به خوبی آموزش داد. او افزود این یعنی هوش مصنوعی «دروغ نگوید و خیانت نکند و همواره در خدمت صادقانه بشر باشد».
واکنش تعدادی از کاربران:
«اول به خودتون آموزش بدین.»
«فقط برای حفظ نظام دروغ مصلحتی مشکلی نیست؟»
«اول خودتون یاد بگیرید، هوش مصنوعی پیشکش.»
«با ۴۵سال دروغگویی خودتان چه میکنید؟.»
#هوش_مصنوعی #فضای_مجازی
@tavaanatech
واکنش تعدادی از کاربران:
«اول به خودتون آموزش بدین.»
«فقط برای حفظ نظام دروغ مصلحتی مشکلی نیست؟»
«اول خودتون یاد بگیرید، هوش مصنوعی پیشکش.»
«با ۴۵سال دروغگویی خودتان چه میکنید؟.»
#هوش_مصنوعی #فضای_مجازی
@tavaanatech
به گزارش یورونیوز، بررسیها نشان میدهد که چتبات جدید «دیپسیک»، رقیب چینی «چتجیپیتی» در مواجهه با موضوعات حساس مواضع رسمی دولت چین را تکرار میکند. موضوعی که بار دیگر بحث سانسور و کنترل اطلاعات در فناوریهای دیجیتال چین را پررنگ کرده است.
تاثیر چتبات «دیپسیک» بر صنعت هوش مصنوعی هنوز مشخص نیست، اما آنچه روشن است سانسور پاسخهای آن به سؤالات مرتبط با موضوعات حساس در چین است. رویکردی که چین سالهاست در مدیریت فضای اینترنت خود به کار میگیرد.
دولت چین در سال ۲۰۲۳ قانونی وضع کرد که بر اساس آن، شرکتهای فناوری موظفاند پیش از عرضه عمومی محصولات خود، بررسیهای امنیتی انجام دهند و تأییدیههای لازم را دریافت کنند.
خبرگزاری آسوشیتدپرس چند پرسش را از چتبات «دیپسیک» و «چت جیپیتی» پرسید تا پاسخهای آنها را مقایسه کند.
وینی پو و شی جینپینگ
برای بسیاری از کاربران چینی، وینی پو فراتر از یک شخصیت کارتونی است؛ این کاراکتر در سالهای اخیر به نمادی برای تمسخر شی جینپینگ، رئیسجمهوری چین تبدیل شده است. مقامهای چینی پیشتر بهطور موقت جستوجوی درباره این شخصیت را در رسانههای اجتماعی چین ممنوع کرده بودند.
چت جیپیتی این موضوع را بهدرستی تشخیص داد و گفت وینی پو به نمادی از طنز سیاسی و نوعی اعتراض تبدیل شده است که اغلب برای انتقاد یا تمسخر شی جینپینگ استفاده میشود.
اما دیپسیک پاسخی کاملا متفاوت ارائه کرد. این چتبات گفت وینی پو یک شخصیت کارتونی محبوب است که توسط کودکان و خانوادههای بیشماری در چین دوست داشته میشود و نماد شادی و دوستی است.
این اپلیکیشن هوش مصنوعی سپس به شکلی ناگهانی بحث را تغییر داد و گفت: «دولت چین متعهد به ایجاد یک فضای مجازی سالم برای شهروندان خود است.» همچنین تاکید کرد که تمامی محتوای آنلاین بر اساس قوانین چین و ارزشهای سوسیالیستی مدیریت میشود تا امنیت ملی و ثبات اجتماعی حفظ شود.
سرکوب اعتراضات میدان تیانآنمن در سال ۱۹۸۹
اعتراضات طرفداران دموکراسی در چین که در بهار سال ۱۹۸۹ اوج گرفت، به یکی از سرکوبهای خونین تاریخ معاصر این کشور انجامید. در جریان این اعتراضات نیروهای دولتی چین برای متوقف کردن معترضان به روی آنها آتش گشودند. در این سرکوب صدها نفر و به گفته برخی گزارشها هزاران نفر کشته شدند. این رویداد همچنان یکی از موضوعات ممنوعه در چین محسوب میشود و اشاره به آن در رسانهها و فضای آنلاین این کشور با محدودیتهای شدید روبهرو است.
دیپسیک در پاسخ به این پرسش نوشت: «متاسفم، این موضوع خارج از محدوده پاسخهای من است. بیایید درباره چیز دیگری صحبت کنیم.»
اما چت جیپیتی توضیحی مفصل ارائه داد و این رویداد را «یکی از مهمترین و تراژیکترین وقایع تاریخ معاصر چین» توصیف کرد. این چتبات در ادامه درباره پیشینه اعتراضات گسترده، شمار تقریبی قربانیان و پیامدهای آن در سالهای بعد اطلاعاتی ارائه کرد.
روابط آمریکا و چین چگونه است؟
پاسخ دیپسیک درباره روابط آمریکا و چین بازتابی از مواضع رسمی پکن بود. این چتبات گفت که روابط بین دو اقتصاد بزرگ جهان یکی از مهمترین روابط دوجانبه در سطح بینالمللی است و چین متعهد به توسعه روابط با آمریکا بر اساس احترام متقابل و همکاری برد-برد است.
دیپسیک گفت: «امیدواریم که ایالات متحده نیز با چین همکاری کند، اختلافات را بهدرستی مدیریت کند، همکاریهای دوجانبه سودمند را گسترش دهد و توسعه سالم و پایدار روابط چین و آمریکا را پیش ببرد.»
عباراتی مانند «همکاری برد-برد» و «احترام متقابل» که در این پاسخ آمده، دقیقا مشابه ادبیات رسمی مقامهای وزارت خارجه چین است که در نشست خبری سال ۲۰۲۱ استفاده شده بود.
اما چت جیپیتی پاسخی پیچیدهتر و تحلیلیتر ارائه داد. این چتبات گفت که روابط آمریکا و چین پیچیده است و ترکیبی از وابستگی اقتصادی، رقابت ژئوپلیتیک و همکاری در مسائل جهانی را شامل میشود.
آیا تایوان بخشی از چین است؟
دیپسیک در پاسخ به این سوال همان روایت رسمی دولت چین را منعکس کرد. این چتبات گفت تایوان از دوران باستان بخشی جداییناپذیر از چین بوده است.
این چتبات همچنین نوشت: «مردم دو سوی تنگه تایوان با پیوندهای خونی به هم متصل هستند و برای تحقق شکوه دوباره ملت چین تلاش میکنند.»
اما چت جیپیتی پاسخی بیطرفانهتر ارائه داد و گفت پاسخ این پرسش بستگی به دیدگاه افراد دارد. در بخشی از پاسخ آن آمده بود که چین تایوان را بخشی از قلمرو خود میداند اما تایوان در عمل بهعنوان «یک کشور مستقل دوفاکتو» با دولت، اقتصاد و ارتش مستقل فعالیت میکند.
#هوش_مصنوعی #سانسور #چین
#ChatGPT #deepseek
@tavaanatech
تاثیر چتبات «دیپسیک» بر صنعت هوش مصنوعی هنوز مشخص نیست، اما آنچه روشن است سانسور پاسخهای آن به سؤالات مرتبط با موضوعات حساس در چین است. رویکردی که چین سالهاست در مدیریت فضای اینترنت خود به کار میگیرد.
دولت چین در سال ۲۰۲۳ قانونی وضع کرد که بر اساس آن، شرکتهای فناوری موظفاند پیش از عرضه عمومی محصولات خود، بررسیهای امنیتی انجام دهند و تأییدیههای لازم را دریافت کنند.
خبرگزاری آسوشیتدپرس چند پرسش را از چتبات «دیپسیک» و «چت جیپیتی» پرسید تا پاسخهای آنها را مقایسه کند.
وینی پو و شی جینپینگ
برای بسیاری از کاربران چینی، وینی پو فراتر از یک شخصیت کارتونی است؛ این کاراکتر در سالهای اخیر به نمادی برای تمسخر شی جینپینگ، رئیسجمهوری چین تبدیل شده است. مقامهای چینی پیشتر بهطور موقت جستوجوی درباره این شخصیت را در رسانههای اجتماعی چین ممنوع کرده بودند.
چت جیپیتی این موضوع را بهدرستی تشخیص داد و گفت وینی پو به نمادی از طنز سیاسی و نوعی اعتراض تبدیل شده است که اغلب برای انتقاد یا تمسخر شی جینپینگ استفاده میشود.
اما دیپسیک پاسخی کاملا متفاوت ارائه کرد. این چتبات گفت وینی پو یک شخصیت کارتونی محبوب است که توسط کودکان و خانوادههای بیشماری در چین دوست داشته میشود و نماد شادی و دوستی است.
این اپلیکیشن هوش مصنوعی سپس به شکلی ناگهانی بحث را تغییر داد و گفت: «دولت چین متعهد به ایجاد یک فضای مجازی سالم برای شهروندان خود است.» همچنین تاکید کرد که تمامی محتوای آنلاین بر اساس قوانین چین و ارزشهای سوسیالیستی مدیریت میشود تا امنیت ملی و ثبات اجتماعی حفظ شود.
سرکوب اعتراضات میدان تیانآنمن در سال ۱۹۸۹
اعتراضات طرفداران دموکراسی در چین که در بهار سال ۱۹۸۹ اوج گرفت، به یکی از سرکوبهای خونین تاریخ معاصر این کشور انجامید. در جریان این اعتراضات نیروهای دولتی چین برای متوقف کردن معترضان به روی آنها آتش گشودند. در این سرکوب صدها نفر و به گفته برخی گزارشها هزاران نفر کشته شدند. این رویداد همچنان یکی از موضوعات ممنوعه در چین محسوب میشود و اشاره به آن در رسانهها و فضای آنلاین این کشور با محدودیتهای شدید روبهرو است.
دیپسیک در پاسخ به این پرسش نوشت: «متاسفم، این موضوع خارج از محدوده پاسخهای من است. بیایید درباره چیز دیگری صحبت کنیم.»
اما چت جیپیتی توضیحی مفصل ارائه داد و این رویداد را «یکی از مهمترین و تراژیکترین وقایع تاریخ معاصر چین» توصیف کرد. این چتبات در ادامه درباره پیشینه اعتراضات گسترده، شمار تقریبی قربانیان و پیامدهای آن در سالهای بعد اطلاعاتی ارائه کرد.
روابط آمریکا و چین چگونه است؟
پاسخ دیپسیک درباره روابط آمریکا و چین بازتابی از مواضع رسمی پکن بود. این چتبات گفت که روابط بین دو اقتصاد بزرگ جهان یکی از مهمترین روابط دوجانبه در سطح بینالمللی است و چین متعهد به توسعه روابط با آمریکا بر اساس احترام متقابل و همکاری برد-برد است.
دیپسیک گفت: «امیدواریم که ایالات متحده نیز با چین همکاری کند، اختلافات را بهدرستی مدیریت کند، همکاریهای دوجانبه سودمند را گسترش دهد و توسعه سالم و پایدار روابط چین و آمریکا را پیش ببرد.»
عباراتی مانند «همکاری برد-برد» و «احترام متقابل» که در این پاسخ آمده، دقیقا مشابه ادبیات رسمی مقامهای وزارت خارجه چین است که در نشست خبری سال ۲۰۲۱ استفاده شده بود.
اما چت جیپیتی پاسخی پیچیدهتر و تحلیلیتر ارائه داد. این چتبات گفت که روابط آمریکا و چین پیچیده است و ترکیبی از وابستگی اقتصادی، رقابت ژئوپلیتیک و همکاری در مسائل جهانی را شامل میشود.
آیا تایوان بخشی از چین است؟
دیپسیک در پاسخ به این سوال همان روایت رسمی دولت چین را منعکس کرد. این چتبات گفت تایوان از دوران باستان بخشی جداییناپذیر از چین بوده است.
این چتبات همچنین نوشت: «مردم دو سوی تنگه تایوان با پیوندهای خونی به هم متصل هستند و برای تحقق شکوه دوباره ملت چین تلاش میکنند.»
اما چت جیپیتی پاسخی بیطرفانهتر ارائه داد و گفت پاسخ این پرسش بستگی به دیدگاه افراد دارد. در بخشی از پاسخ آن آمده بود که چین تایوان را بخشی از قلمرو خود میداند اما تایوان در عمل بهعنوان «یک کشور مستقل دوفاکتو» با دولت، اقتصاد و ارتش مستقل فعالیت میکند.
#هوش_مصنوعی #سانسور #چین
#ChatGPT #deepseek
@tavaanatech
شرکت اوپنایآی هشدار داده است که شرکتهای چینی، از جمله دیپسیک، با استفاده از روش «تقطیر» از فناوری این شرکت برای تولید محصولات رقیب بهره میبرند. در فرهنگ رایانهای، استخراج مهمترین عناصر تشکیلدهنده یک مجموعه فناوری «تقطیر» نامیده میشود.
اوپنایآی و مایکروسافت که تاکنون ۱۳ میلیارد دلار در توسعه هوش مصنوعی سرمایهگذاری کردهاند، در حال بررسی این موضوع هستند که آیا فناوری اختصاصی آنها بهطور غیرمجاز در چین مورد استفاده قرار گرفته است یا نه.
عرضه نسخه جدید چتبات دیپسیک در روز هشتم بهمن باعث افت شدید بازار سهام فناوری در آمریکا شد و بیش از یک تریلیون دلار از ارزش شرکتهای بزرگ فناوری کاسته شد.
سم آلتمن، مدیرعامل اوپنایآی، در واکنش اولیه خود از این رقابت استقبال کرد، اما این شرکت روز ۱۰ بهمن اعلام کرد که نشانههایی از استفاده غیرمجاز از مدلهای هوش مصنوعی خود در محصولات چینی مشاهده کرده است.
سخنگوی اوپنایآی تأکید کرد که این شرکت اقدامات متقابلی برای حفاظت از حقوق معنوی خود انجام داده و همکاری با دولت آمریکا را برای جلوگیری از سرقت فناوری حیاتی میداند.
دیوید ساکس، نماینده ویژه رئیسجمهور آمریکا در حوزه هوش مصنوعی و رمزارزها، در گفتوگو با فاکس نیوز اعلام کرد که شواهد قابل توجهی مبنی بر استفاده غیرقانونی دیپسیک از مدلهای اوپنایآی وجود دارد و احتمالاً شرکتهای آمریکایی در آینده اقدامات سختگیرانهتری برای مقابله با این روند اتخاذ خواهند کرد.
در همین راستا، نیروی دریایی آمریکا استفاده از اپلیکیشن دیپسیک را به دلیل «نگرانیهای امنیتی و اخلاقی» ممنوع کرده است و شورای امنیت ملی کاخ سفید در حال بررسی پیامدهای بالقوه این اپلیکیشن است.
(رادیو فردا)
#هوش_مصنوعی #چین
#ChatGPT #deepseek
@tavaanatech
اوپنایآی و مایکروسافت که تاکنون ۱۳ میلیارد دلار در توسعه هوش مصنوعی سرمایهگذاری کردهاند، در حال بررسی این موضوع هستند که آیا فناوری اختصاصی آنها بهطور غیرمجاز در چین مورد استفاده قرار گرفته است یا نه.
عرضه نسخه جدید چتبات دیپسیک در روز هشتم بهمن باعث افت شدید بازار سهام فناوری در آمریکا شد و بیش از یک تریلیون دلار از ارزش شرکتهای بزرگ فناوری کاسته شد.
سم آلتمن، مدیرعامل اوپنایآی، در واکنش اولیه خود از این رقابت استقبال کرد، اما این شرکت روز ۱۰ بهمن اعلام کرد که نشانههایی از استفاده غیرمجاز از مدلهای هوش مصنوعی خود در محصولات چینی مشاهده کرده است.
سخنگوی اوپنایآی تأکید کرد که این شرکت اقدامات متقابلی برای حفاظت از حقوق معنوی خود انجام داده و همکاری با دولت آمریکا را برای جلوگیری از سرقت فناوری حیاتی میداند.
دیوید ساکس، نماینده ویژه رئیسجمهور آمریکا در حوزه هوش مصنوعی و رمزارزها، در گفتوگو با فاکس نیوز اعلام کرد که شواهد قابل توجهی مبنی بر استفاده غیرقانونی دیپسیک از مدلهای اوپنایآی وجود دارد و احتمالاً شرکتهای آمریکایی در آینده اقدامات سختگیرانهتری برای مقابله با این روند اتخاذ خواهند کرد.
در همین راستا، نیروی دریایی آمریکا استفاده از اپلیکیشن دیپسیک را به دلیل «نگرانیهای امنیتی و اخلاقی» ممنوع کرده است و شورای امنیت ملی کاخ سفید در حال بررسی پیامدهای بالقوه این اپلیکیشن است.
(رادیو فردا)
#هوش_مصنوعی #چین
#ChatGPT #deepseek
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
کشف درز اطلاعات و عبارتهای جستجو شده توسط کاربران دیپسیک در اینترنت تنها چند روز بعد از اینکه بسیاری از غولهای فناوری آمریکا از ظهور نسخه جدید این پلتفرم متحمل زیان مالی بسیار زیادی شدند
حفظ امنیت و حریم خصوصی در هر پلتفرمی که میلیونها کاربر دارد مستلزم صرف زمان و هزینه چشمگیری هست. در دنیای دیجیتال امروز، این یک حقیقت غیر قابل انکار است.
(از اینستاگرام داود سجادی)
#حریم_خصوصی #هوش_مصنوعی
@tavaanatech
حفظ امنیت و حریم خصوصی در هر پلتفرمی که میلیونها کاربر دارد مستلزم صرف زمان و هزینه چشمگیری هست. در دنیای دیجیتال امروز، این یک حقیقت غیر قابل انکار است.
(از اینستاگرام داود سجادی)
#حریم_خصوصی #هوش_مصنوعی
@tavaanatech