«جهان‌صنعت» از رونمایی جدیدترین مدل هوش مصنوعی «گوگل» گزارش می‌دهد:

رقیبی متن‌باز برای مدل‌های نانو

گروه فناوری
کدخبر: 535981
گوگل در کنفرانس «Google I/O 2025» از مدل‌های هوش مصنوعی جدید مانند «Gemma 3n»، «مدجما» و «ساین‌جما» رونمایی کرد.
رقیبی متن‌باز برای مدل‌های نانو

گروه فناوری– جدیدترین مدل هوش مصنوعی «گوگل» از خانواده مدل‌های «جما» که روی تلفن همراه اجرا می‌شود، رونمایی شد. گوگل در جریان کنفرانس  «Google I/‏‏O 2025»  از مدل«Gemma 3n»  رونمایی کرد که برای اجرای روان روی تلفن‌ها، لپ‌تاپ‌ها و تبلت‌ها طراحی شده است. به گفته گوگل، این مدل که از سه‌شنبه در پیش‌نمایش موجود است، می‌تواند صدا، متن، تصاویر و ویدئوها را مدیریت کند. مدل‌هایی که به اندازه کافی کارآمد هستند تا به صورت آفلاین و بدون نیاز به محاسبات ابری اجرا شوند، در سال‌های اخیر در جامعه هوش مصنوعی مورد توجه قرار گرفته‌اند. استفاده از آنها نه‌تنها ارزان‌تر از مدل‌های بزرگ است، بلکه با حذف نیاز به انتقال داده‌ها به یک مرکز داده در راه دور، حریم خصوصی را نیز حفظ می‌کنند. «گاس مارتینز»، مدیر محصول جما در جریان سخنرانی در این کنفرانس گفت:

«Gemma 3n»   روی دستگاه‌هایی با کمتر از دو گیگابایت حافظه قابل اجراست. این مدل از همان ساختار «جمینای نانو» بهره می‌برد و برای داشتن یک عملکرد فوق‌العاده‌ طراحی شده است. گوگل علاوه بر «Gemma 3n» ، مدل «مدجما» را نیز از طریق برنامه «بنیاد توسعه‌دهندگان هوش مصنوعی سلامت» خود منتشر می‌کند. به گفته این شرکت، مدجما توانمندترین مدل متن ‌باز آن برای تحلیل متن و تصاویر مرتبط با سلامت است. مارتینز گفت: مدجما یک مجموعه‌ از مدل‌های باز ما برای درک متن و تصویر چندوجهی حوزه سلامت است. مدجما در طیف گسترده‌ای از اپلیکیشن‌های تصویر و متن به خوبی کار می‌کند، به طوری که توسعه‌دهندگان می‌توانند مدل‌ها را با اپلیکیشن‌های سلامت خود تطبیق دهند. در آینده نزدیک شاهد رونمایی از «ساین‌جما» خواهیم بود که یک مدل متن ‌باز برای ترجمه زبان اشاره به متن گفتاری است. گوگل می‌گوید که ساین‌جما به توسعه‌دهندگان امکان می‌دهد تا اپلیکیشن‌ها و ادغام‌های جدیدی را برای کاربران ناشنوا و کم‌شنوا ایجاد کنند. مارتینز گفت: ساین‌جما یک خانواده جدید از مدل‌هایی است که برای ترجمه زبان اشاره به متن گفتاری آموزش دیده‌اند اما در زبان اشاره آمریکایی و انگلیسی بهترین عملکرد را دارد. این مدل، توانمندترین مدل درک زبان اشاره تا به امروز است و بی‌صبرانه منتظر شما – توسعه‌دهندگان و جوامع ناشنوا و کم‌شنوا‌‌- هستیم تا اپلیکیشن‌ها را بر این پایه بسازید. شایان ذکر است که جما به دلیل شرایط مجوز سفارشی و غیراستاندارد خود مورد انتقاد قرار گرفته و به گفته برخی از توسعه‌دهندگان، استفاده تجاری از مدل‌ها را به یک پیشنهاد پرخطر تبدیل کرده است. در هر حال، این موضوع توسعه‌دهندگان را از دانلود ده‌ها میلیون بار مدل‌های جما منصرف نکرده است.

رونمایی از قابلیت «پرو مجازی» گوگل

از طرفی حالت جدید هوش مصنوعی گوگل به کاربران این امکان را می‌دهد تا با آپلود کردن یک عکس از خود، لباس‌های فروشگاه‌ها را به صورت مجازی بر تن خود ببینند. گوگل سه ابزار جدید را به عنوان بخشی از تجربه خرید جدید خود در حالت هوش مصنوعی توصیف و بخش‌هایی از این فرآیند را کشف، امتحان و بررسی کرد. به گفته گوگل، این ویژگی‌ها در ماه‌های آینده برای خریداران آنلاین در ایالات‌متحده در دسترس خواهد بود. بدین ترتیب کاربران وقتی دنبال یک محصول خاص برای خرید هستند، می‌توانند نمونه‌هایی که گوگل به اشتراک گذاشته را بر تن خود ببینند یا همخوانی فرش‌ها و مبلمان را با خانه خود بررسی کنند. این قابلیت با ترکیب قابلیت‌های استدلال هوش مصنوعی جمینای با پایگاه ‌داده نمودارهای خرید محصولات پدید آمده است. گوگل می‌گوید همینطور که به اصلاح نتایج جست‌وجوی خود با «جمینای» ادامه می‌دهید، پنل سمت راست به صورت پویا با محصولات و تصاویر مرتبط به‌روز می‌شود. مثلا اگر مشخص کرده‌اید به دنبال یک کیف مسافرتی هستید که می‌خواهید در شرایط بارانی مقاوم باشد، هوش مصنوعی محصولات ضد‌آب را در اولویت قرار می‌دهد و آن تصاویر را در این پنل به شما نشان می‌دهد. بخش دوم و جذاب‌تر از به‌روزرسانی‌های خرید در حالت هوش مصنوعی، تغییری است که در ابزار آزمایش مجازی این شرکت رخ می‌دهد. این ویژگی از زمان عرضه در سال ۲۰۲۳ پیچیده‌تر شده است و اکنون به کاربران این امکان را می‌دهد تا مدل‌های خاصی را انتخاب کنند که بیشتر با تیپ بدنی آنها مطابقت دارد و سپس لباسی که پیدا کرده‌اند را با بارگذاری یک تصویر واحد از خود، به صورت مجازی پرو کنند، این یعنی هوش مصنوعی آن لباس را بر تن کاربر می‌پوشاند. به گفته گوگل، این مدل تولید تصویر سفارشی، بدن انسان و تفاوت‌های ظریف لباس را مانند اینکه پارچه‌ها و مواد مختلف چگونه روی بدن انسان چین می‌خورند، درک می‌کند. گوگل می‌گوید این اولین مورد در نوع خود است که در این مقیاس کار می‌کند و به خریداران اجازه می‌دهد میلیاردها لباس را امتحان کنند.

«گوگل‌میت» به ترجمه زنده مجهز شد

شرکت گوگل در این رویداد اعلام کرد که قابلیت ترجمه زنده را به سرویس Meet می‌آورد و زبان اسپانیایی اولین زبان قابل ترجمه در این سرویس خواهد بود. بنابراین اگر ابزارهای ترجمه زنده گوگل را مفید می‌دانید، به زودی می‌توانید در طول تماس‌ها و جلسات تصویری به ‌طور طبیعی از آنها استفاده کنید. این شرکت روز سه‌شنبه در کنفرانس توسعه‌دهندگان ‌I/‏‏O‌ خود اعلام کرد که این ویژگی را به «Google Meet» می‌آورد. در نمونه‌ای که گوگل در این رویداد به نمایش گذاشت، ترجمه زنده در Meet با لحن و آهنگ گفتار گوینده مطابقت داشت و حتی می‌توانست عبارات را کانالیزه کند. بدون شک این برای بسیاری از افراد، به خصوص در تماس‌های کاری با همکاران در کشورهای دیگر مفید خواهد بود. ترجمه زنده به همه این امکان را می‌دهد به زبانی که راحت‌تر و بهتر صحبت می‌کنند، گفت‌وگو کنند. پیش از این، برای انجام هر گونه ترجمه باید به زیرنویس‌های زنده در Google Meet  تکیه می‌کردید، بنابراین عدم نیاز به خواندن آنها باعث می‌شود کاربران با مکالمه هماهنگ‌تر باشند. ترجمه زنده در سرویس «Google Meet»  در نسخه بتا برای مشترکان AI Pro  و Ultra در دسترس خواهد بود. این شرکت می‌گوید ویژگی‌های جدید در اواخر امسال به عنوان بخشی از مرحله آزمایش اولیه برای کاربران سازمانی در دسترس خواهد بود.

همکاری ۱۵۰‌ میلیون دلاری «گوگل» برای توسعه عینک هوش مصنوعی

گوگل در جریان این کنفرانس اعلام کرد که تا سقف ۱۵۰‌میلیون دلار به شرکت آمریکایی «واربی پارکر» تولیدکننده عینک‌های طبی و آفتابی متعهد خواهد شد تا به طور مشترک عینک‌های مجهز به هوش مصنوعی مبتنی بر اندروید XR را توسعه دهند. این دو شرکت‌ در یک بیانیه مطبوعاتی اعلام کردند که گوگل تاکنون ۷۵‌میلیون دلار برای هزینه‌های توسعه و تجاری‌سازی محصول واربی پارکر اختصاص داده است. گوگل می‌گوید در صورتی که این تولیدکننده عینک به اهداف مشخصی دست یابد، ۷۵‌میلیون دلار دیگر نیز با خرید سهام واربی پارکر سرمایه‌گذاری خواهد کرد. در این رویداد گوگل از همکاری با چندین شرکت ازجمله «سامسونگ» و «جنتل مانستر» برای توسعه عینک‌های هوشمند مجهز به قابلیت‌های هوش مصنوعی «جمینای» و واقعیت افزوده خبر داد. به نظر می‌رسد گوگل از راهبرد عینک‌های هوشمند «متا» الگوبرداری می‌کند. متا با همکاری و سرمایه‌گذاری در شرکت فرانسوی «اسیلور لوکساتیکا» سازنده‌ عینک‌های «ری- بن»، در توسعه‌ عینک‌های هوشمند خود به موفقیت دست یافته است. بخشی از دلیل موفقیت ری- بن متا این است که عینک‌های هوشمند، طراحی جذاب و آشنایی دارند و در فروشگاه‌های ری- بن فروخته می‌شوند. به نظر می‌رسد گوگل نیز رابطه‌ مشابهی با واربی پارکر خواهد داشت و از طرح‌های محبوب فریم این شرکت عینک‌سازی و شاید فروشگاه‌های خرده‌فروشی آن بهره خواهد برد. در بیانیه مطبوعاتی، واربی پارکر و گوگل اعلام کردند که قصد دارند مجموعه‌ای از محصولات را به مرور زمان عرضه کنند. اولین خط تولید عینک آنها پس از سال‌۲۰۲۵ راه‌اندازی خواهد شد و هوش مصنوعی چندوجهی را با عینک‌های طبی و غیرطبی ترکیب خواهد کرد.

وب گردی