رقیبی متنباز برای مدلهای نانو

گروه فناوری– جدیدترین مدل هوش مصنوعی «گوگل» از خانواده مدلهای «جما» که روی تلفن همراه اجرا میشود، رونمایی شد. گوگل در جریان کنفرانس «Google I/O 2025» از مدل«Gemma 3n» رونمایی کرد که برای اجرای روان روی تلفنها، لپتاپها و تبلتها طراحی شده است. به گفته گوگل، این مدل که از سهشنبه در پیشنمایش موجود است، میتواند صدا، متن، تصاویر و ویدئوها را مدیریت کند. مدلهایی که به اندازه کافی کارآمد هستند تا به صورت آفلاین و بدون نیاز به محاسبات ابری اجرا شوند، در سالهای اخیر در جامعه هوش مصنوعی مورد توجه قرار گرفتهاند. استفاده از آنها نهتنها ارزانتر از مدلهای بزرگ است، بلکه با حذف نیاز به انتقال دادهها به یک مرکز داده در راه دور، حریم خصوصی را نیز حفظ میکنند. «گاس مارتینز»، مدیر محصول جما در جریان سخنرانی در این کنفرانس گفت:
«Gemma 3n» روی دستگاههایی با کمتر از دو گیگابایت حافظه قابل اجراست. این مدل از همان ساختار «جمینای نانو» بهره میبرد و برای داشتن یک عملکرد فوقالعاده طراحی شده است. گوگل علاوه بر «Gemma 3n» ، مدل «مدجما» را نیز از طریق برنامه «بنیاد توسعهدهندگان هوش مصنوعی سلامت» خود منتشر میکند. به گفته این شرکت، مدجما توانمندترین مدل متن باز آن برای تحلیل متن و تصاویر مرتبط با سلامت است. مارتینز گفت: مدجما یک مجموعه از مدلهای باز ما برای درک متن و تصویر چندوجهی حوزه سلامت است. مدجما در طیف گستردهای از اپلیکیشنهای تصویر و متن به خوبی کار میکند، به طوری که توسعهدهندگان میتوانند مدلها را با اپلیکیشنهای سلامت خود تطبیق دهند. در آینده نزدیک شاهد رونمایی از «ساینجما» خواهیم بود که یک مدل متن باز برای ترجمه زبان اشاره به متن گفتاری است. گوگل میگوید که ساینجما به توسعهدهندگان امکان میدهد تا اپلیکیشنها و ادغامهای جدیدی را برای کاربران ناشنوا و کمشنوا ایجاد کنند. مارتینز گفت: ساینجما یک خانواده جدید از مدلهایی است که برای ترجمه زبان اشاره به متن گفتاری آموزش دیدهاند اما در زبان اشاره آمریکایی و انگلیسی بهترین عملکرد را دارد. این مدل، توانمندترین مدل درک زبان اشاره تا به امروز است و بیصبرانه منتظر شما – توسعهدهندگان و جوامع ناشنوا و کمشنوا- هستیم تا اپلیکیشنها را بر این پایه بسازید. شایان ذکر است که جما به دلیل شرایط مجوز سفارشی و غیراستاندارد خود مورد انتقاد قرار گرفته و به گفته برخی از توسعهدهندگان، استفاده تجاری از مدلها را به یک پیشنهاد پرخطر تبدیل کرده است. در هر حال، این موضوع توسعهدهندگان را از دانلود دهها میلیون بار مدلهای جما منصرف نکرده است.
رونمایی از قابلیت «پرو مجازی» گوگل
از طرفی حالت جدید هوش مصنوعی گوگل به کاربران این امکان را میدهد تا با آپلود کردن یک عکس از خود، لباسهای فروشگاهها را به صورت مجازی بر تن خود ببینند. گوگل سه ابزار جدید را به عنوان بخشی از تجربه خرید جدید خود در حالت هوش مصنوعی توصیف و بخشهایی از این فرآیند را کشف، امتحان و بررسی کرد. به گفته گوگل، این ویژگیها در ماههای آینده برای خریداران آنلاین در ایالاتمتحده در دسترس خواهد بود. بدین ترتیب کاربران وقتی دنبال یک محصول خاص برای خرید هستند، میتوانند نمونههایی که گوگل به اشتراک گذاشته را بر تن خود ببینند یا همخوانی فرشها و مبلمان را با خانه خود بررسی کنند. این قابلیت با ترکیب قابلیتهای استدلال هوش مصنوعی جمینای با پایگاه داده نمودارهای خرید محصولات پدید آمده است. گوگل میگوید همینطور که به اصلاح نتایج جستوجوی خود با «جمینای» ادامه میدهید، پنل سمت راست به صورت پویا با محصولات و تصاویر مرتبط بهروز میشود. مثلا اگر مشخص کردهاید به دنبال یک کیف مسافرتی هستید که میخواهید در شرایط بارانی مقاوم باشد، هوش مصنوعی محصولات ضدآب را در اولویت قرار میدهد و آن تصاویر را در این پنل به شما نشان میدهد. بخش دوم و جذابتر از بهروزرسانیهای خرید در حالت هوش مصنوعی، تغییری است که در ابزار آزمایش مجازی این شرکت رخ میدهد. این ویژگی از زمان عرضه در سال ۲۰۲۳ پیچیدهتر شده است و اکنون به کاربران این امکان را میدهد تا مدلهای خاصی را انتخاب کنند که بیشتر با تیپ بدنی آنها مطابقت دارد و سپس لباسی که پیدا کردهاند را با بارگذاری یک تصویر واحد از خود، به صورت مجازی پرو کنند، این یعنی هوش مصنوعی آن لباس را بر تن کاربر میپوشاند. به گفته گوگل، این مدل تولید تصویر سفارشی، بدن انسان و تفاوتهای ظریف لباس را مانند اینکه پارچهها و مواد مختلف چگونه روی بدن انسان چین میخورند، درک میکند. گوگل میگوید این اولین مورد در نوع خود است که در این مقیاس کار میکند و به خریداران اجازه میدهد میلیاردها لباس را امتحان کنند.
«گوگلمیت» به ترجمه زنده مجهز شد
شرکت گوگل در این رویداد اعلام کرد که قابلیت ترجمه زنده را به سرویس Meet میآورد و زبان اسپانیایی اولین زبان قابل ترجمه در این سرویس خواهد بود. بنابراین اگر ابزارهای ترجمه زنده گوگل را مفید میدانید، به زودی میتوانید در طول تماسها و جلسات تصویری به طور طبیعی از آنها استفاده کنید. این شرکت روز سهشنبه در کنفرانس توسعهدهندگان I/O خود اعلام کرد که این ویژگی را به «Google Meet» میآورد. در نمونهای که گوگل در این رویداد به نمایش گذاشت، ترجمه زنده در Meet با لحن و آهنگ گفتار گوینده مطابقت داشت و حتی میتوانست عبارات را کانالیزه کند. بدون شک این برای بسیاری از افراد، به خصوص در تماسهای کاری با همکاران در کشورهای دیگر مفید خواهد بود. ترجمه زنده به همه این امکان را میدهد به زبانی که راحتتر و بهتر صحبت میکنند، گفتوگو کنند. پیش از این، برای انجام هر گونه ترجمه باید به زیرنویسهای زنده در Google Meet تکیه میکردید، بنابراین عدم نیاز به خواندن آنها باعث میشود کاربران با مکالمه هماهنگتر باشند. ترجمه زنده در سرویس «Google Meet» در نسخه بتا برای مشترکان AI Pro و Ultra در دسترس خواهد بود. این شرکت میگوید ویژگیهای جدید در اواخر امسال به عنوان بخشی از مرحله آزمایش اولیه برای کاربران سازمانی در دسترس خواهد بود.
همکاری ۱۵۰ میلیون دلاری «گوگل» برای توسعه عینک هوش مصنوعی
گوگل در جریان این کنفرانس اعلام کرد که تا سقف ۱۵۰میلیون دلار به شرکت آمریکایی «واربی پارکر» تولیدکننده عینکهای طبی و آفتابی متعهد خواهد شد تا به طور مشترک عینکهای مجهز به هوش مصنوعی مبتنی بر اندروید XR را توسعه دهند. این دو شرکت در یک بیانیه مطبوعاتی اعلام کردند که گوگل تاکنون ۷۵میلیون دلار برای هزینههای توسعه و تجاریسازی محصول واربی پارکر اختصاص داده است. گوگل میگوید در صورتی که این تولیدکننده عینک به اهداف مشخصی دست یابد، ۷۵میلیون دلار دیگر نیز با خرید سهام واربی پارکر سرمایهگذاری خواهد کرد. در این رویداد گوگل از همکاری با چندین شرکت ازجمله «سامسونگ» و «جنتل مانستر» برای توسعه عینکهای هوشمند مجهز به قابلیتهای هوش مصنوعی «جمینای» و واقعیت افزوده خبر داد. به نظر میرسد گوگل از راهبرد عینکهای هوشمند «متا» الگوبرداری میکند. متا با همکاری و سرمایهگذاری در شرکت فرانسوی «اسیلور لوکساتیکا» سازنده عینکهای «ری- بن»، در توسعه عینکهای هوشمند خود به موفقیت دست یافته است. بخشی از دلیل موفقیت ری- بن متا این است که عینکهای هوشمند، طراحی جذاب و آشنایی دارند و در فروشگاههای ری- بن فروخته میشوند. به نظر میرسد گوگل نیز رابطه مشابهی با واربی پارکر خواهد داشت و از طرحهای محبوب فریم این شرکت عینکسازی و شاید فروشگاههای خردهفروشی آن بهره خواهد برد. در بیانیه مطبوعاتی، واربی پارکر و گوگل اعلام کردند که قصد دارند مجموعهای از محصولات را به مرور زمان عرضه کنند. اولین خط تولید عینک آنها پس از سال۲۰۲۵ راهاندازی خواهد شد و هوش مصنوعی چندوجهی را با عینکهای طبی و غیرطبی ترکیب خواهد کرد.