في خضم المنافسة.. جوجل متهمة بالاستعانة بطرق ملتوية لتطوير Gemini

البوابة العربية لأخبار التقنية 0 تعليق ارسل طباعة تبليغ حذف

كشف تقرير جديد من موقع “تك كرانش” التقني عن تفاصيل مثيرة للجدل حول كيفية تطوير جوجل نموذج الذكاء الاصطناعي الخاص بها Gemini.

ووفقًا للتقرير، فإن جوجل تعتمد على موظفين مستقلين لتقييم استجابات نماذج الذكاء الاصطناعي الخاصة بها بناءً على معايير مثل الدقة والوضوح والسلامة، ولكن المثير للاهتمام هو أن هؤلاء الموظفين يقارنون استجابات Gemini بتلك الصادرة عن نموذج Claude، وهو نموذج اللغة الكبير التابع لشركة أنثروبيك المنافسة لجوجل في مجال الذكاء الاصطناعي.

وحديثًا، لاحظ بعض الموظفين أمورًا غريبة خلال عملهم، إذ أظهرت منصة جوجل الداخلية التي تتيحها لهم الشركة لإجراء هذه المقارنات ردودًا تُنسب إلى نموذج Claude بدلًا من أن تكون ناتجة عن Gemini.

ولم يتوقف الأمر عند هذا الحد؛ بل إن بعض الردود أظهرت سمات تُشبه أسلوب Claude، مثل التركيز القوي على السلامة.

وتحظر شروط الخدمة الخاصة بـ Anthropic استخدام نموذجها Claude لتطوير منتجات منافسة. وتشير البنود بوضوح إلى أنه “لا يجوز للعميل محاولة الوصول إلى خدماتها لبناء منتج منافس أو تدريب نماذج ذكاء اصطناعي منافسة دون موافقة صريحة من Anthropic، كما يُحظر عكس هندسة الخدمات أو نسخها أو دعم أي طرف ثالث في تنفيذ أي من هذه الأنشطة”.

ولم تقدم جوجل إجابة واضحة عند سؤالها عن حصولها على إذن لاستخدام ردود Claude على هذا النحو، واكتفت شيرا مكنمارا، المتحدثة باسم شركة الذكاء الاصطناعي التابعة لجوجل DeepMind، بالقول إن ذلك “يتماشى مع الممارسات المعتادة”، وإن الشركة تقارن في بعض الحالات استجابات النماذج كجزء من عملية التقييم لديها.

ومن الجدير بالذكر أن المقارنات بين النماذج ليست جديدة في مجال تطوير الذكاء الاصطناعي، إذ تلجأ الشركات إلى مقارنة أدائها مع منافسيها لتحديد نقاط القوة والضعف. ومع ذلك، فإن دمج ردود نموذج آخر أو تقليدها دون إذن يُثير قضايا قانونية وأخلاقية.

وتعمل أنثروبيك على تطوير نماذج Claude بإضافة مزايا جديدة، ومنها القدرة على تقديم استجابات بأساليب محادثة مختلفة، وتحليل الأكواد البرمجية وتشغيلها مباشرة داخل الروبوت، والقدرة على تنفيذ المهام في الحاسوب نيابةً عن المستخدم، وغيرها.

نسخ الرابط تم نسخ الرابط

إخترنا لك

أخبار ذات صلة

0 تعليق