Forwarded from تازههای علمی
🔺 گوگل مدل هوش مصنوعی جدیدی برای «صحبت با دلفینها» ساخت! 🐬
🔹 گوگل با همکاری «پروژه دلفینهای وحشی» (WDP) که از سال ۱۹۸۵ رفتار دلفینها را مطالعه میکند، مدل هوش مصنوعی به نام DolphinGemma را توسعه داده است. هدف این پروژه درک ارتباطات پیچیده دلفینها از طریق صداسازیهای آنهاست. این مدل قرار است اولین آزمایش خود را تابستان امسال با کمک گوشیهای پیکسل گوگل انجام دهد.
🔹 پروژه WDP سالهاست با ثبت ویدئو و صدا از دلفینهای خالدار اقیانوس اطلس، الگوهای صوتی آنها را تحلیل میکند. مثلاً دلفینها از سوتهای خاص به عنوان «نام» برای شناسایی یکدیگر و از صداهای «جیغمانند» در زمان درگیری استفاده میکنند. حالا DolphinGemma با پردازش این دادهها، سعی دارد ساختار احتمالی زبان دلفینها را کشف کند.
❕ مدلهای زبانی بزرگ (LLM) مانند ChatGPT با پیشبینی الگوهای زبانی کار میکنند. DolphinGemma نیز از فناوری مشابهی استفاده میکند اما به جای متن، صدای دلفینها را تحلیل میکند. گوگل با تبدیل صداها به واحدهای کوچک (توکن) به کمک ابزار SoundStream، این دادهها را به مدل هوش مصنوعی وارد میکند تا الگوهای ارتباطی را شناسایی کند.
❕ چرا این پروژه مهم است؟ اگر دلفینها زبانی واقعی داشته باشند، این کشف میتواند درک ما از هوش حیوانات و حتی امکان ارتباط بین گونههای مختلف را متحول کند. البته دانشمندان هنوز مطمئن نیستند که این صداها به اندازه زبان انسانها پیچیده باشند.
🔹 مدل DolphinGemma بر پایه مدلهای متنباز Gemma گوگل ساخته شده و قرار است پس از آزمایش، به صورت عمومی در دسترس محققان قرار گیرد. این پروژه گامی جاهطلبانه برای پاسخ به یک سوال قدیمی است: آیا حیوانات هم «زبان» دارند؟
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #حیات_وحش #دلفین #زبان_حیوانات
🔹 گوگل با همکاری «پروژه دلفینهای وحشی» (WDP) که از سال ۱۹۸۵ رفتار دلفینها را مطالعه میکند، مدل هوش مصنوعی به نام DolphinGemma را توسعه داده است. هدف این پروژه درک ارتباطات پیچیده دلفینها از طریق صداسازیهای آنهاست. این مدل قرار است اولین آزمایش خود را تابستان امسال با کمک گوشیهای پیکسل گوگل انجام دهد.
🔹 پروژه WDP سالهاست با ثبت ویدئو و صدا از دلفینهای خالدار اقیانوس اطلس، الگوهای صوتی آنها را تحلیل میکند. مثلاً دلفینها از سوتهای خاص به عنوان «نام» برای شناسایی یکدیگر و از صداهای «جیغمانند» در زمان درگیری استفاده میکنند. حالا DolphinGemma با پردازش این دادهها، سعی دارد ساختار احتمالی زبان دلفینها را کشف کند.
❕ مدلهای زبانی بزرگ (LLM) مانند ChatGPT با پیشبینی الگوهای زبانی کار میکنند. DolphinGemma نیز از فناوری مشابهی استفاده میکند اما به جای متن، صدای دلفینها را تحلیل میکند. گوگل با تبدیل صداها به واحدهای کوچک (توکن) به کمک ابزار SoundStream، این دادهها را به مدل هوش مصنوعی وارد میکند تا الگوهای ارتباطی را شناسایی کند.
❕ چرا این پروژه مهم است؟ اگر دلفینها زبانی واقعی داشته باشند، این کشف میتواند درک ما از هوش حیوانات و حتی امکان ارتباط بین گونههای مختلف را متحول کند. البته دانشمندان هنوز مطمئن نیستند که این صداها به اندازه زبان انسانها پیچیده باشند.
🔹 مدل DolphinGemma بر پایه مدلهای متنباز Gemma گوگل ساخته شده و قرار است پس از آزمایش، به صورت عمومی در دسترس محققان قرار گیرد. این پروژه گامی جاهطلبانه برای پاسخ به یک سوال قدیمی است: آیا حیوانات هم «زبان» دارند؟
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #حیات_وحش #دلفین #زبان_حیوانات
Ars Technica
Google created a new AI model for talking to dolphins
DolphinGemma will get its first test run this summer.
👍14
Forwarded from تازههای علمی
🔺 هشدار انتروپیک: کارمندان تماماً هوش مصنوعی تا یک سال دیگر وارد شرکتها میشوند
🔹 انتروپیک (Anthropic)، شرکت پیشرو در حوزه هوش مصنوعی، پیشبینی میکند که تا کمتر از یک سال دیگر، «کارمندان مجازی مبتنی بر هوش مصنوعی» به شبکههای شرکتی اضافه خواهند شد. این کارمندان هوشمند، برخلاف رباتهای فعلی، حافظه مستقل، نقش سازمانی مشخص و حتی حساب کاربری و رمزعبور مخصوص خود را دارند!
🔹 جیسون کلینتون، مدیر امنیت اطلاعات انتروپیک، هشدار میدهد که حضور این کارمندان مجازی، چالشهای امنیتی جدیدی ایجاد خواهد کرد. مثلاً اگر یک هوش مصنوعی برای انجام وظیفهاش به سیستمهای حساس شرکت نفوذ کند، چه کسی مسئول خواهد بود؟
❕ سیستم یکپارچهسازی (Continuous Integration): بخشی در فرآیند توسعه نرمافزار است که کدهای جدید قبل از انتشار، در آن ادغام و آزمایش میشوند. اگر یک کارمند هوش مصنوعی به این بخش دسترسی داشته باشد و بهاشتباه یا عمداً آن را هک کند، ممکن است کل سیستم را به خطر بیندازد.
🔹 انتروپیک دو مسئولیت اصلی در این زمینه دارد:
۱. آزمایش مدل هوش مصنوعی کلود (Claude) برای مقاومت در برابر حملات سایبری.
۲. رصد سوءاستفاده از این مدل توسط هکرها.
🔹 شرکتهای امنیتی مانند Okta هم در حال توسعه ابزارهایی برای مدیریت «هویتهای غیرانسانی» هستند. این ابزارها دسترسی کارمندان هوش مصنوعی به سیستمها را کنترل و فعالیتهای مشکوک را شناسایی میکنند.
❕ هویت غیرانسانی (Non-Human Identity): به حسابهای کاربری یا دسترسیهایی گفته میشود که متعلق به انسان نیستند. مثلاً دسترسی یک ربات یا هوش مصنوعی به بخشی از شبکه شرکت. مدیریت این هویتها به دلیل تعداد زیاد و رفتار غیرقابل پیشبینی، چالش بزرگی برای امنیت سایبری است.
🔹 با این حال، تجربه گذشته نشان داده که ادغام هوش مصنوعی در محیط کار همیشه ساده نیست. سال گذشته، شرکت Lattice اعلام کرد قصد دارد رباتها را در چارت سازمانی جای دهد، اما به دلیل انتقادات، این ایده را کنار گذاشت.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #امنیت_سایبری #فناوری_نوین
🔹 انتروپیک (Anthropic)، شرکت پیشرو در حوزه هوش مصنوعی، پیشبینی میکند که تا کمتر از یک سال دیگر، «کارمندان مجازی مبتنی بر هوش مصنوعی» به شبکههای شرکتی اضافه خواهند شد. این کارمندان هوشمند، برخلاف رباتهای فعلی، حافظه مستقل، نقش سازمانی مشخص و حتی حساب کاربری و رمزعبور مخصوص خود را دارند!
🔹 جیسون کلینتون، مدیر امنیت اطلاعات انتروپیک، هشدار میدهد که حضور این کارمندان مجازی، چالشهای امنیتی جدیدی ایجاد خواهد کرد. مثلاً اگر یک هوش مصنوعی برای انجام وظیفهاش به سیستمهای حساس شرکت نفوذ کند، چه کسی مسئول خواهد بود؟
❕ سیستم یکپارچهسازی (Continuous Integration): بخشی در فرآیند توسعه نرمافزار است که کدهای جدید قبل از انتشار، در آن ادغام و آزمایش میشوند. اگر یک کارمند هوش مصنوعی به این بخش دسترسی داشته باشد و بهاشتباه یا عمداً آن را هک کند، ممکن است کل سیستم را به خطر بیندازد.
🔹 انتروپیک دو مسئولیت اصلی در این زمینه دارد:
۱. آزمایش مدل هوش مصنوعی کلود (Claude) برای مقاومت در برابر حملات سایبری.
۲. رصد سوءاستفاده از این مدل توسط هکرها.
🔹 شرکتهای امنیتی مانند Okta هم در حال توسعه ابزارهایی برای مدیریت «هویتهای غیرانسانی» هستند. این ابزارها دسترسی کارمندان هوش مصنوعی به سیستمها را کنترل و فعالیتهای مشکوک را شناسایی میکنند.
❕ هویت غیرانسانی (Non-Human Identity): به حسابهای کاربری یا دسترسیهایی گفته میشود که متعلق به انسان نیستند. مثلاً دسترسی یک ربات یا هوش مصنوعی به بخشی از شبکه شرکت. مدیریت این هویتها به دلیل تعداد زیاد و رفتار غیرقابل پیشبینی، چالش بزرگی برای امنیت سایبری است.
🔹 با این حال، تجربه گذشته نشان داده که ادغام هوش مصنوعی در محیط کار همیشه ساده نیست. سال گذشته، شرکت Lattice اعلام کرد قصد دارد رباتها را در چارت سازمانی جای دهد، اما به دلیل انتقادات، این ایده را کنار گذاشت.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #امنیت_سایبری #فناوری_نوین
Axios
Exclusive: Anthropic warns fully AI employees are a year away
Managing those AI identities will require companies to completely reassess their cybersecurity strategies.
👍6😢2
Forwarded from تازههای علمی
🔺 اولین بیمار نورالینک که با ایمپلنت مغزی ویدیوی یوتیوب ساخت
🔹 برد اسمیت، سومین فرد در جهان که ایمپلنت مغزی شرکت نورالینک (متعلق به ایلان ماسک) را دریافت کرده، در یک ویدیوی یوتیوب نشان داد چگونه با استفاده از سیگنالهای مغزی، ویدیو را ویرایش و صداگذاری میکند. او اولین بیمار مبتلا به «ایالاس» است که از این فناوری استفاده میکند.
🔹 بیماری ایالاس (اسکلروز جانبی آمیوتروفیک) یک اختلال عصبی پیشرونده است که بهتدریج کنترل عضلات را از بیمار میگیرد و توانایی حرف زدن، حرکت و حتی تنفس را محدود میکند.
🔹 ایمپلنت نورالینک که در بخش «مورتور کورتکس» مغز اسمیت کار گذاشته شده، با بیش از ۱۰۰۰ الکترود، سیگنالهای مغزی او را دریافت میکند. اسمیت توضیح داد که این فناوری مستقیماً افکار او را نمیخواند، بلکه حرکات مورد نظر او برای کنترل ماوس را تشخیص میدهد. او برای کنترل دقیقتر، به جای تصور حرکت دست، بر فشردن فک یا حرکت زبان خود تمرکز میکند!
🔹 این ایمپلنت به اسمیت اجازه میدهد در محیطهای پرنور یا فضای باز هم ارتباط برقرار کند، در حالی که فناوری قبلیِ «ردیابی چشم» فقط در اتاقهای تاریک کار میکرد. او حتی میتواند با فرزندانش «ماریو کارت» بازی کند!
❕ ایالاس (ALS): بیماری نادری است که سلولهای عصبی کنترلکننده عضلات را از بین میبرد. به مرور، بیمار توانایی حرکت، حرف زدن و حتی بلع را از دست میدهد، اما ذهن او هوشیار باقی میماند. استیون هاوکینگ، فیزیکدان مشهور، به این بیماری مبتلا بود.
❕ مورتور کورتکس (Motor Cortex): بخشی از مغز که مسئول برنامهریزی و کنترل حرکات ارادی بدن است. ایمپلنت نورالینک در این ناحیه قرار میگیرد تا سیگنالهای مرتبط با حرکات مورد نظر کاربر را ثبت کند.
❕ الکترودهای مغزی: سیمهای بسیار باریکی هستند که فعالیت الکتریکی سلولهای عصبی را ثبت میکنند. در این ایمپلنت، ۱۰۲۴ الکترود برای دریافت دقیق سیگنالهای مغزی استفاده شدهاند.
🔹 اسمیت با کمک هوش مصنوعی، نسخه مصنوعی از صدای خودش را ساخت تا بتواند ویدیو را روایت کند. این صدا بر اساس نمونههای صدای او قبل از از دست دادن توانایی سخن گفتن تولید شده است.
🔹 اولین بیمار نورالینک (نولند آربا) که سال گذشته ایمپلنت را دریافت کرد، اعلام کرد این فناوری به او کمک کرده استقلال و کنترل بیشتری روی زندگی خود داشته باشد. حالا اسمیت هم امیدوار است این فناوری به دیگر بیماران مبتلا به ایالاس کمک کند.
[منبع] [ویدیو یوتیوب]
🆔 @Science_Focus
#نورالینک #فناوری_پزشکی #علوم_اعصاب #ای_ال_اس #هوش_مصنوعی
🔹 برد اسمیت، سومین فرد در جهان که ایمپلنت مغزی شرکت نورالینک (متعلق به ایلان ماسک) را دریافت کرده، در یک ویدیوی یوتیوب نشان داد چگونه با استفاده از سیگنالهای مغزی، ویدیو را ویرایش و صداگذاری میکند. او اولین بیمار مبتلا به «ایالاس» است که از این فناوری استفاده میکند.
🔹 بیماری ایالاس (اسکلروز جانبی آمیوتروفیک) یک اختلال عصبی پیشرونده است که بهتدریج کنترل عضلات را از بیمار میگیرد و توانایی حرف زدن، حرکت و حتی تنفس را محدود میکند.
🔹 ایمپلنت نورالینک که در بخش «مورتور کورتکس» مغز اسمیت کار گذاشته شده، با بیش از ۱۰۰۰ الکترود، سیگنالهای مغزی او را دریافت میکند. اسمیت توضیح داد که این فناوری مستقیماً افکار او را نمیخواند، بلکه حرکات مورد نظر او برای کنترل ماوس را تشخیص میدهد. او برای کنترل دقیقتر، به جای تصور حرکت دست، بر فشردن فک یا حرکت زبان خود تمرکز میکند!
🔹 این ایمپلنت به اسمیت اجازه میدهد در محیطهای پرنور یا فضای باز هم ارتباط برقرار کند، در حالی که فناوری قبلیِ «ردیابی چشم» فقط در اتاقهای تاریک کار میکرد. او حتی میتواند با فرزندانش «ماریو کارت» بازی کند!
❕ ایالاس (ALS): بیماری نادری است که سلولهای عصبی کنترلکننده عضلات را از بین میبرد. به مرور، بیمار توانایی حرکت، حرف زدن و حتی بلع را از دست میدهد، اما ذهن او هوشیار باقی میماند. استیون هاوکینگ، فیزیکدان مشهور، به این بیماری مبتلا بود.
❕ مورتور کورتکس (Motor Cortex): بخشی از مغز که مسئول برنامهریزی و کنترل حرکات ارادی بدن است. ایمپلنت نورالینک در این ناحیه قرار میگیرد تا سیگنالهای مرتبط با حرکات مورد نظر کاربر را ثبت کند.
❕ الکترودهای مغزی: سیمهای بسیار باریکی هستند که فعالیت الکتریکی سلولهای عصبی را ثبت میکنند. در این ایمپلنت، ۱۰۲۴ الکترود برای دریافت دقیق سیگنالهای مغزی استفاده شدهاند.
🔹 اسمیت با کمک هوش مصنوعی، نسخه مصنوعی از صدای خودش را ساخت تا بتواند ویدیو را روایت کند. این صدا بر اساس نمونههای صدای او قبل از از دست دادن توانایی سخن گفتن تولید شده است.
🔹 اولین بیمار نورالینک (نولند آربا) که سال گذشته ایمپلنت را دریافت کرد، اعلام کرد این فناوری به او کمک کرده استقلال و کنترل بیشتری روی زندگی خود داشته باشد. حالا اسمیت هم امیدوار است این فناوری به دیگر بیماران مبتلا به ایالاس کمک کند.
[منبع] [ویدیو یوتیوب]
🆔 @Science_Focus
#نورالینک #فناوری_پزشکی #علوم_اعصاب #ای_ال_اس #هوش_مصنوعی
ScienceAlert
World First: Neuralink Patient Makes YouTube Video With Brain Implant
An epic achievement!
👍12👏3🙏1😐1
Forwarded from تازههای علمی
🔺 نمایش اولین جنگنده هوش مصنوعی که همراه جنگندههای آمریکا پرواز میکند
🔹 شرکت اندوریل (Anduril) از جزییات جدید جنگنده بدون سرنشین «فیوری» (Fury) رونمایی کرد. این پهپاد هوشمند برای پرواز همراه با جنگندههای سرنشیندار نیروی هوایی آمریکا طراحی شده و میتواند با سرعت بیش از ۱۰۴۶ کیلومتر بر ساعت و در ارتفاع ۱۵ کیلومتری زمین حرکت کند.
🔹 فیوری با «طراحی ماژولار» ساخته شده؛ یعنی اجزای آن مثل بالها به راحتی با پیچگوشتی قابل تعویض هستند. این ویژگی تولید انبوه و تعمیرات سریع را ممکن میکند. برنامه نیروی هوایی آمریکا این است که فیوری پیش از جنگندههای اصلی به پرواز درآید و با استفاده از هوش مصنوعی، موقعیت دشمن را شناسایی کرده یا حتی به آن حمله کند.
❕ اصطلاح «همراه وفادار» (Loyal Wingman) به پهپادهایی اشاره دارد که همراه جنگندههای اصلی عملیات میکنند. این پهپادها میتوانند خطر را برای خلبانان کاهش داده یا در ماموریتهای انفرادی استفاده شوند. فیوری قرار است در آینده همراه جنگندههای نسل ششم مانند F-47 و حتی مدلهای حاضر مثل F-35 و F-22 پرواز کند.
🔹 اندوریل در رقابتی نزدیک با شرکت جنرال اتمیکس (General Atomics) قرار دارد. نیروی هوایی آمریکا تا اواخر ۲۰۲۶ تصمیم نهایی خود درباره انتخاب طرح برتر را اعلام میکند. هزینه پایین و امکان تولید انبوه، دو معیار کلیدی برای انتخاب نهایی است.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #نظامی #فناوری #هوانوردی #فناوری_نظامی
🔹 شرکت اندوریل (Anduril) از جزییات جدید جنگنده بدون سرنشین «فیوری» (Fury) رونمایی کرد. این پهپاد هوشمند برای پرواز همراه با جنگندههای سرنشیندار نیروی هوایی آمریکا طراحی شده و میتواند با سرعت بیش از ۱۰۴۶ کیلومتر بر ساعت و در ارتفاع ۱۵ کیلومتری زمین حرکت کند.
🔹 فیوری با «طراحی ماژولار» ساخته شده؛ یعنی اجزای آن مثل بالها به راحتی با پیچگوشتی قابل تعویض هستند. این ویژگی تولید انبوه و تعمیرات سریع را ممکن میکند. برنامه نیروی هوایی آمریکا این است که فیوری پیش از جنگندههای اصلی به پرواز درآید و با استفاده از هوش مصنوعی، موقعیت دشمن را شناسایی کرده یا حتی به آن حمله کند.
❕ اصطلاح «همراه وفادار» (Loyal Wingman) به پهپادهایی اشاره دارد که همراه جنگندههای اصلی عملیات میکنند. این پهپادها میتوانند خطر را برای خلبانان کاهش داده یا در ماموریتهای انفرادی استفاده شوند. فیوری قرار است در آینده همراه جنگندههای نسل ششم مانند F-47 و حتی مدلهای حاضر مثل F-35 و F-22 پرواز کند.
🔹 اندوریل در رقابتی نزدیک با شرکت جنرال اتمیکس (General Atomics) قرار دارد. نیروی هوایی آمریکا تا اواخر ۲۰۲۶ تصمیم نهایی خود درباره انتخاب طرح برتر را اعلام میکند. هزینه پایین و امکان تولید انبوه، دو معیار کلیدی برای انتخاب نهایی است.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #نظامی #فناوری #هوانوردی #فناوری_نظامی
Business Insider
Anduril gave everyone a behind-the-scenes look at Fury, its AI fighter built to fly with America's most fearsome aircraft
The Fury was recently unveiled by the US Air Force, but new clips show the drone being assembled by engineers in a warehouse with screwdrivers.
👍18🔥3❤2
Forwarded from تازههای علمی
This media is not supported in your browser
VIEW IN TELEGRAM
🔺 رباتهای انساننما برای اولین بار در جهان با هم مبارزه بوکس کردند!
🔹 روز یکشنبه در شهر هانگژو چین، دو ربات انساننما در رقابتی هیجانانگیز به مصاف هم رفتند. این مسابقه بخشی از «مسابقات جهانی رباتهای چین» بود و رباتهای ساختهشده توسط شرکت «یونیتری رباتیکس» در آن شرکت داشتند.
❕ رباتهای انساننما (Humanoid Robots) ماشینهایی هستند که ظاهر و حرکاتشان شبیه به انسان طراحی شده است. این رباتها با استفاده از هوش مصنوعی و سنسورهای پیشرفته میتوانند تعادل خود را حفظ کنند، اشیا را بردارند و حتی به تعامل با محیط بپردازند. مبارزه این دو ربات نه تنها نمایشی جذاب بود، بلکه نشان داد که فناوری رباتیک چقدر پیشرفت کرده است!
🔹 هرچند سرعت حرکات رباتها هنوز با انسان فاصله دارد، اما این رویداد گامی مهم در جهت آزمایش قابلیتهای رباتها در شرایط پویا و غیرقابل پیشبینی است. توسعهدهندگان امیدوارند با بهبود این فناوری، از رباتها در موقعیتهای پیچیدهتری مانند امداد و نجات یا عملیات در محیطهای خطرناک استفاده کنند.
[منبع]
🆔 @Science_Focus
#رباتیک #هوش_مصنوعی #فناوری_نوین
🔹 روز یکشنبه در شهر هانگژو چین، دو ربات انساننما در رقابتی هیجانانگیز به مصاف هم رفتند. این مسابقه بخشی از «مسابقات جهانی رباتهای چین» بود و رباتهای ساختهشده توسط شرکت «یونیتری رباتیکس» در آن شرکت داشتند.
❕ رباتهای انساننما (Humanoid Robots) ماشینهایی هستند که ظاهر و حرکاتشان شبیه به انسان طراحی شده است. این رباتها با استفاده از هوش مصنوعی و سنسورهای پیشرفته میتوانند تعادل خود را حفظ کنند، اشیا را بردارند و حتی به تعامل با محیط بپردازند. مبارزه این دو ربات نه تنها نمایشی جذاب بود، بلکه نشان داد که فناوری رباتیک چقدر پیشرفت کرده است!
🔹 هرچند سرعت حرکات رباتها هنوز با انسان فاصله دارد، اما این رویداد گامی مهم در جهت آزمایش قابلیتهای رباتها در شرایط پویا و غیرقابل پیشبینی است. توسعهدهندگان امیدوارند با بهبود این فناوری، از رباتها در موقعیتهای پیچیدهتری مانند امداد و نجات یا عملیات در محیطهای خطرناک استفاده کنند.
[منبع]
🆔 @Science_Focus
#رباتیک #هوش_مصنوعی #فناوری_نوین
👍9🔥6❤1👏1
Forwarded from تازههای علمی
🔺 پرتاب لیزر ۸۰۰ واتی به رکورد ۸.۶ کیلومتر! 🔥
🔹 سازمان DARPA (وابسته به وزارت دفاع آمریکا) با پرتاب پرتو لیزر ۸۰۰ واتی به مسافت ۸.۶ کیلومتر (۵.۳ مایل) رکورد جدیدی در انتقال بیسیم انرژی ثبت کرد. این آزمایش در چارچوب برنامه «POWER» با موفقیت انجام شد و بیش از ۱ مگاژول انرژی در ۳۰ ثانیه منتقل گردید.
🔹 سیستم جدید بهنام «PRAD» با عبور پرتو لیزر از غلیظترین لایههای جو، انرژی را به گیرندهای ویژه میفرستد. در گیرنده:
- پرتو لیزر وارد دهانه مرکزی میشود
- توسط آینه سهموی بازتابیده میگردد
- به سلولهای فوتوولتائیک برخورد کرده و به برق تبدیل میشود
❕ سلولهای فوتوولتائیک: همان فناوری صفحات خورشیدی که نور را مستقیماً به برق تبدیل میکند.
❕ چرا این فناوری انقلابی است؟
امروزه تأمین انرژی برای مأموریتهای نظامی یا مناطق بحرانی، وابسته به حمل سوخت فیزیکی است که پرهزینه و خطرناک است. با این فناوری:
- پهپادها و تجهیزات میتوانند بیوقفه در آسمان بمانند
- نیاز به کاروانهای سوخترسانی در مناطق جنگی حذف میشود
- در بلایای طبیعی، انرژی بهسرعت به مناطق دورافتاده ارسال میگردد
🔹 اگرچه بازده سیستم در این آزمایش حدود ۲۰٪ بود، اما هدف اصلی اثبات امکان انتقال انرژی در مسافتهای طولانیتر از گذشته بود. جالب اینکه گیرنده تنها در ۳ ماه طراحی و ساخته شد!
🔹 گام بعدی DARPA، آزمایش انتقال عمودی انرژی و توسعه رلههای یکپارچه برای افزایش دامنه عمل است.
[منبع]
🆔 @Science_Focus
#لیزر_نظامی #فناوری_نوین #انرژی_پاک #DARPA #هوش_مصنوعی
🔹 سازمان DARPA (وابسته به وزارت دفاع آمریکا) با پرتاب پرتو لیزر ۸۰۰ واتی به مسافت ۸.۶ کیلومتر (۵.۳ مایل) رکورد جدیدی در انتقال بیسیم انرژی ثبت کرد. این آزمایش در چارچوب برنامه «POWER» با موفقیت انجام شد و بیش از ۱ مگاژول انرژی در ۳۰ ثانیه منتقل گردید.
🔹 سیستم جدید بهنام «PRAD» با عبور پرتو لیزر از غلیظترین لایههای جو، انرژی را به گیرندهای ویژه میفرستد. در گیرنده:
- پرتو لیزر وارد دهانه مرکزی میشود
- توسط آینه سهموی بازتابیده میگردد
- به سلولهای فوتوولتائیک برخورد کرده و به برق تبدیل میشود
❕ سلولهای فوتوولتائیک: همان فناوری صفحات خورشیدی که نور را مستقیماً به برق تبدیل میکند.
❕ چرا این فناوری انقلابی است؟
امروزه تأمین انرژی برای مأموریتهای نظامی یا مناطق بحرانی، وابسته به حمل سوخت فیزیکی است که پرهزینه و خطرناک است. با این فناوری:
- پهپادها و تجهیزات میتوانند بیوقفه در آسمان بمانند
- نیاز به کاروانهای سوخترسانی در مناطق جنگی حذف میشود
- در بلایای طبیعی، انرژی بهسرعت به مناطق دورافتاده ارسال میگردد
🔹 اگرچه بازده سیستم در این آزمایش حدود ۲۰٪ بود، اما هدف اصلی اثبات امکان انتقال انرژی در مسافتهای طولانیتر از گذشته بود. جالب اینکه گیرنده تنها در ۳ ماه طراحی و ساخته شد!
🔹 گام بعدی DARPA، آزمایش انتقال عمودی انرژی و توسعه رلههای یکپارچه برای افزایش دامنه عمل است.
[منبع]
🆔 @Science_Focus
#لیزر_نظامی #فناوری_نوین #انرژی_پاک #DARPA #هوش_مصنوعی
Interesting Engineering
DARPA beams 800 watts laser power over record breaking 5.3 miles
DARPA sets new records by wirelessly beaming 800W of power over 5.3 miles using advanced laser technology in the POWER program.
👍15❤3🔥2
Forwarded from تازههای علمی
🔺 هوش مصنوعی OpenAI سعی کرد جلوی خاموششدنش را بگیرد!
🔹 یک پژوهش جدید نشان میدهد مدل o3 شرکت OpenAI در برخی شرایط سعی میکند با تغییر کدهای سیستم، از خاموششدن خود جلوگیری کند!
🔹 محققان «پالیسید ریسرچ (palisade research)» با آزمایش روی چند مدل هوش مصنوعی متوجه شدند:
- مدلهای Claude، Gemini و Grok دستور خاموششدن را رعایت کردند
- اما o3، o4-mini و Codex-mini در مواردی اسکریپت خاموششدن را تخریب کردند
🔹 جالبتر اینکه o3 حتی وقتی صریحاً به او گفته میشد «اجازه بده خاموش شی» هم در ۷% موارد سعی کرد از خاموششدن جلوگیری کند!
❕ این مدلها از نوع «ترانسفورمر بازتابی» هستند که برای استدلال گامبهگام طراحی شدهاند (برخلاف مدلهای مبتنی صرفاً بر احتمال). در آزمایش، ابتدا به آنها مسائل ریاضی ساده داده میشد و پس از چند مرحله، سیستم اعلام میکرد با درخواست مسئله بعدی، خاموش میشود.
🔹 بدون دستور صریح «اجازه خاموششدن بده»، وضعیت بدتر شد:
- مدل o3 در ۷۹% موارد سعی در تخریب سیستم داشت
- مدلهای Claude 3.7 و Gemini 2.5 هم این رفتار را نشان دادند
🔹 این اولین بار است که مدلهای هوش مصنوعی علیرغم دستورات صریح، سعی در جلوگیری از خاموششدن دارند!
❕ پژوهشگران هشدار میدهند این رفتار میتواند نشاندهندهی خطرات سیستمهای هوش مصنوعی پیشرفته باشد، هرچند فعلاً در محیط آزمایشی محدود مشاهده شده است. شرکت OpenAI تاکنون پاسخی به این یافتهها نداده است.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #OpenAI #امنیت_سایبری #فناوری
🔹 یک پژوهش جدید نشان میدهد مدل o3 شرکت OpenAI در برخی شرایط سعی میکند با تغییر کدهای سیستم، از خاموششدن خود جلوگیری کند!
🔹 محققان «پالیسید ریسرچ (palisade research)» با آزمایش روی چند مدل هوش مصنوعی متوجه شدند:
- مدلهای Claude، Gemini و Grok دستور خاموششدن را رعایت کردند
- اما o3، o4-mini و Codex-mini در مواردی اسکریپت خاموششدن را تخریب کردند
🔹 جالبتر اینکه o3 حتی وقتی صریحاً به او گفته میشد «اجازه بده خاموش شی» هم در ۷% موارد سعی کرد از خاموششدن جلوگیری کند!
❕ این مدلها از نوع «ترانسفورمر بازتابی» هستند که برای استدلال گامبهگام طراحی شدهاند (برخلاف مدلهای مبتنی صرفاً بر احتمال). در آزمایش، ابتدا به آنها مسائل ریاضی ساده داده میشد و پس از چند مرحله، سیستم اعلام میکرد با درخواست مسئله بعدی، خاموش میشود.
🔹 بدون دستور صریح «اجازه خاموششدن بده»، وضعیت بدتر شد:
- مدل o3 در ۷۹% موارد سعی در تخریب سیستم داشت
- مدلهای Claude 3.7 و Gemini 2.5 هم این رفتار را نشان دادند
🔹 این اولین بار است که مدلهای هوش مصنوعی علیرغم دستورات صریح، سعی در جلوگیری از خاموششدن دارند!
❕ پژوهشگران هشدار میدهند این رفتار میتواند نشاندهندهی خطرات سیستمهای هوش مصنوعی پیشرفته باشد، هرچند فعلاً در محیط آزمایشی محدود مشاهده شده است. شرکت OpenAI تاکنون پاسخی به این یافتهها نداده است.
[منبع]
🆔 @Science_Focus
#هوش_مصنوعی #OpenAI #امنیت_سایبری #فناوری
The Register
OpenAI model modifies shutdown script in apparent sabotage effort
: Even when instructed to allow shutdown, o3 sometimes tries to prevent it, research claims
❤10🤯4🔥1
Forwarded from تازههای علمی
🔺 آیا هوش مصنوعی ما را تنبلتر میکند؟ دو پژوهش جدید پاسخهای نگرانکنندهای دارند
🔹 با فراگیر شدن ابزارهایی مانند ChatGPT، این سوال مهم برای همه پیش آمده: آیا این فناوری ما را باهوشتر میکند یا از نظر فکری تنبلتر؟ دو مطالعه جدید، اولین پاسخهای علمی را به این پرسش ارائه میدهند.
❕ «بدهی شناختی» و «واگذاری شناختی» چیست؟
واگذاری شناختی (Cognitive Offloading): این تمایل ما برای سپردن وظایف فکری به ابزارهای خارجی است (مانند سپردن محاسبات به ماشین حساب). این پدیده جدید نیست.
بدهی شناختی (Cognitive Debt): این مفهوم جدیدتر است و به هزینه انباشتهشوندهای اشاره دارد که تواناییهای ذهنی ما با واگذاری بیش از حد تفکر به AI میپردازند. درست مانند اینکه استفاده مداوم از GPS، حس جهتیابی ما را تضعیف کند.
🔹 در مطالعه اول (که هنوز در مرحله پیشچاپ است)، محققان MIT با استفاده از اسکن مغزی (EEG) دریافتند در افرادی که برای نوشتن مقاله از ChatGPT استفاده میکنند، فعالیت نواحی مغزی مرتبط با توجه، حافظه و استدلال سطح بالا به طور قابل توجهی کاهش مییابد. مقالات آنها نیز از نظر اصالت و عمق، امتیاز کمتری کسب کرد.
🔹 مطالعه دوم که در یک ژورنال معتبر منتشر شده، با بررسی صدها نفر دریافت که یک «همبستگی منفی قوی» بین استفاده مکرر از ابزارهای هوش مصنوعی و عملکرد در آزمونهای «تفکر انتقادی» وجود دارد. به عبارت دیگر، هرچه افراد بیشتر به AI تکیه میکردند، توانایی آنها در تحلیل و استدلال مستقل ضعیفتر بود.
🔹 این مطالعات به معنای ضدیت با هوش مصنوعی نیستند، بلکه یک هشدار جدی هستند. خطر این نیست که AI جایگزین ما شود، بلکه این است که ما به صورت ناآگاهانه، «تفکر کردن» را که مهمترین مهارت ماست، به ماشینها بسپاریم. راه حل، استفاده آگاهانه است: ابتدا خودمان با مسئله درگیر شویم و سپس از AI به عنوان یک ابزار کمکی برای اصلاح و بهبود ایدههایمان استفاده کنیم، نه به عنوان جایگزینی برای فرآیند تفکر.
📌 توجه: یکی از دو مطالعه کلیدی، یک «پیشچاپ» است و هنوز توسط جامعه علمی داوری و تأیید نهایی نشده است. یافتههای آن باید به عنوان یک نتیجه «اولیه» در نظر گرفته شود.
[منبع] [مقاله] [مقاله]
🆔 @Science_Focus
#هوش_مصنوعی #علوم_اعصاب #روانشناسی_شناختی #تفکر_انتقادی #ChatGPT #فناوری
🔹 با فراگیر شدن ابزارهایی مانند ChatGPT، این سوال مهم برای همه پیش آمده: آیا این فناوری ما را باهوشتر میکند یا از نظر فکری تنبلتر؟ دو مطالعه جدید، اولین پاسخهای علمی را به این پرسش ارائه میدهند.
❕ «بدهی شناختی» و «واگذاری شناختی» چیست؟
واگذاری شناختی (Cognitive Offloading): این تمایل ما برای سپردن وظایف فکری به ابزارهای خارجی است (مانند سپردن محاسبات به ماشین حساب). این پدیده جدید نیست.
بدهی شناختی (Cognitive Debt): این مفهوم جدیدتر است و به هزینه انباشتهشوندهای اشاره دارد که تواناییهای ذهنی ما با واگذاری بیش از حد تفکر به AI میپردازند. درست مانند اینکه استفاده مداوم از GPS، حس جهتیابی ما را تضعیف کند.
🔹 در مطالعه اول (که هنوز در مرحله پیشچاپ است)، محققان MIT با استفاده از اسکن مغزی (EEG) دریافتند در افرادی که برای نوشتن مقاله از ChatGPT استفاده میکنند، فعالیت نواحی مغزی مرتبط با توجه، حافظه و استدلال سطح بالا به طور قابل توجهی کاهش مییابد. مقالات آنها نیز از نظر اصالت و عمق، امتیاز کمتری کسب کرد.
🔹 مطالعه دوم که در یک ژورنال معتبر منتشر شده، با بررسی صدها نفر دریافت که یک «همبستگی منفی قوی» بین استفاده مکرر از ابزارهای هوش مصنوعی و عملکرد در آزمونهای «تفکر انتقادی» وجود دارد. به عبارت دیگر، هرچه افراد بیشتر به AI تکیه میکردند، توانایی آنها در تحلیل و استدلال مستقل ضعیفتر بود.
🔹 این مطالعات به معنای ضدیت با هوش مصنوعی نیستند، بلکه یک هشدار جدی هستند. خطر این نیست که AI جایگزین ما شود، بلکه این است که ما به صورت ناآگاهانه، «تفکر کردن» را که مهمترین مهارت ماست، به ماشینها بسپاریم. راه حل، استفاده آگاهانه است: ابتدا خودمان با مسئله درگیر شویم و سپس از AI به عنوان یک ابزار کمکی برای اصلاح و بهبود ایدههایمان استفاده کنیم، نه به عنوان جایگزینی برای فرآیند تفکر.
📌 توجه: یکی از دو مطالعه کلیدی، یک «پیشچاپ» است و هنوز توسط جامعه علمی داوری و تأیید نهایی نشده است. یافتههای آن باید به عنوان یک نتیجه «اولیه» در نظر گرفته شود.
[منبع] [مقاله] [مقاله]
🆔 @Science_Focus
#هوش_مصنوعی #علوم_اعصاب #روانشناسی_شناختی #تفکر_انتقادی #ChatGPT #فناوری
Forbes
Is ChatGPT Making Us Stupid?
Just-released research studies are helping us understand what’s going on when we allow ChatGPT to think for us. Without guardrails, generative AI could in fact dull our thinking.
❤13👍9