“غوغل” تطور أداة البحث العميق في مساعدها الذكي “جيميناي”
أعلنت شركة “غوغل” عن تحديث جديد لأداة البحث العميق في مساعدها الذكي “جيميناي” (Gemini)، لتتيح للمستخدمين تحويل تقاريرهم البحثية إلى محتوى بصري تفاعلي يضم الرسوم البيانية والصور.
وتمكن أداة البحث العميق المستخدمين من إجراء تحليلات شاملة للويب باستخدام الذكاء الاصطناعي، كما يمكنها الاستفادة من البيانات الموجودة في “جيمايل” (Gmail) و”درايف” (Drive) وسجل المحادثات في “غوغل تشات” (Google Chat) لتوفير سياق إضافي للتقارير البحثية.
وبعد إنشاء التقرير النصي، أصبح بإمكان الأداة الآن تحويل النتائج مباشرة إلى تقارير بصرية تفاعلية تضم الرسوم التوضيحية والجداول بطريقة تشبه ميزة الواجهة التوليدية المضافة سابقا إلى وضع (AI Mode) في بحث “غوغل”.
وأضافت الشركة أن أداة البحث العميق أصبحت قادرة على توضيح النتائج تلقائيا، سواء كانت تخص تخصيص ميزانيات التسويق أو استكشاف نظريات علمية معقدة، حيث يمكن للمستخدمين التفاعل مع نموذج محاكاة ديناميكي داخل التقرير وعرض النتائج بناء على متغيرات مختلفة، بدلا من الاقتصار على قراءة النصوص فقط.
وتتخذ الأداة قرارات ذكية بشأن الرسوم والعناصر البصرية التي يجب إنشاؤها وفقا لنتائج البحث، مثل بناء جدول دوري تفاعلي في حال كان التقرير عن الكيمياء، أو عرض بيانات كثيفة على شكل مخططات خطية أو أعمدة، كما يمكن للأداة إنشاء المخططات والرسوم التخطيطية المعقدة بنحو ديناميكي في الوقت الفعلي، بما يتوافق مع طلب البحث المقدم.
ويمكن للمستخدمين اختبار البحث العميق من خلال تطبيق “جيميناي” (Gemini) عبر الويب، باختيار الأداة من قائمة الأدوات وإدخال طلب البحث، لتوليد تقرير بحثي مخصص يضم الرسوم البيانية والعناصر البصرية المدعومة بالذكاء الاصطناعي.