আপনি যদি স্থানীয় AI দৃশ্য অনুসরণ করে থাকেন, তাহলে সম্ভবত আপনি Qwopus সম্পর্কে জানেন—একটি ওপেন-সোর্স মডেল যা Claude Opus 4.6-এর যুক্তিকে Alibaba-র Qwen-এ পাতন করার চেষ্টা করেছিল, যাতে আপনি বিনামূল্যে আপনার নিজের হার্ডওয়্যারে Opus-এর মতো কিছু চালাতে পারেন। এটি আশ্চর্যজনকভাবে ভালো কাজ করেছিল। সুস্পষ্ট সমস্যা: Qwen একটি চীনা মডেল, এবং সবাই এটি নিয়ে স্বাচ্ছন্দ্য বোধ করে না।
Jackrong, সেই প্রকল্পের পেছনের একই ছদ্মনামী ডেভেলপার, প্রতিক্রিয়া শুনেছেন। তার উত্তর হল Gemopus—Claude Opus-শৈলীর ফাইন-টিউনের একটি নতুন পরিবার যা সম্পূর্ণভাবে Google-এর ওপেন-সোর্স Gemma 4-এর উপর নির্মিত। সম্পূর্ণ আমেরিকান DNA, একই ধারণা: সীমান্ত-স্তরের যুক্তি, যা আপনার ইতিমধ্যে থাকা হার্ডওয়্যারে স্থানীয়ভাবে চলে।
পরিবারটি দুটি ধরনে আসে। Gemopus-4-26B-A4B হল ভারী বিকল্প—একটি Mixture of Experts মডেল যার মোট 26 বিলিয়ন প্যারামিটার রয়েছে কিন্তু ইনফারেন্সের সময় প্রায় 4 বিলিয়ন সক্রিয় করে, যার অর্থ এটি সীমিত হার্ডওয়্যারে তার ওজনের চেয়ে অনেক বেশি শক্তিশালী।
প্যারামিটারগুলি হল যা একটি AI-এর শেখার, যুক্তি করার এবং তথ্য সংরক্ষণ করার ক্ষমতা নির্ধারণ করে। মোট 26 বিলিয়ন প্যারামিটার থাকা মডেলকে বিশাল জ্ঞানের বিস্তৃতি দেয়। কিন্তু শুধুমাত্র আপনার নির্দিষ্ট প্রম্পটের সাথে প্রাসঙ্গিক 4 বিলিয়ন প্যারামিটার "জাগিয়ে তোলার" মাধ্যমে, এটি একটি বিশাল AI-এর উচ্চ-মানের ফলাফল প্রদান করে যখন প্রতিদিনের হার্ডওয়্যারে মসৃণভাবে চালানোর জন্য যথেষ্ট হালকা থাকে।
অন্যটি হল Gemopus-4-E4B, একটি 4-বিলিয়ন প্যারামিটার এজ মডেল যা একটি আধুনিক iPhone বা একটি পাতলা-এবং-হালকা MacBook-এ আরামদায়কভাবে চালানোর জন্য প্রকৌশলী—কোনো GPU প্রয়োজন নেই।
বেস মডেল পছন্দ এখানে গুরুত্বপূর্ণ। Google-এর Gemma 4, যা 2 এপ্রিল প্রকাশিত হয়েছিল, Gemini 3-এর মতো একই গবেষণা এবং প্রযুক্তি থেকে সরাসরি নির্মিত—কোম্পানি লঞ্চের সময় এটি স্পষ্টভাবে বলেছিল। এর অর্থ হল Gemopus এমন কিছু বহন করে যা কোনো Qwen-ভিত্তিক ফাইন-টিউন দাবি করতে পারে না: ভিতরে Google-এর নিজস্ব অত্যাধুনিক বন্ধ মডেলের DNA, উপরে Anthropic-এর চিন্তাভাবনা শৈলীতে মোড়ানো। কম-বেশি উভয় জগতের সেরা।
যা Gemopus-কে এখন Hugging Face-এ প্লাবিত অন্যান্য Gemma ফাইন-টিউনের ঢেউ থেকে আলাদা করে তোলে তা হল এর পেছনের দর্শন। Jackrong ইচ্ছাকৃতভাবে Claude-এর chain-of-thought যুক্তির ট্রেসগুলি Gemma-র ওজনে জোর করে ঢোকানো এড়িয়ে গেছেন—একটি শর্টকাট যা বেশিরভাগ প্রতিযোগী রিলিজ নেয়।
তার যুক্তি, সাম্প্রতিক গবেষণা দ্বারা সমর্থিত, হল যে একটি ছাত্র মডেলে একজন শিক্ষকের পৃষ্ঠ-স্তরের যুক্তি পাঠ্য ভর্তি করা আসলে প্রকৃত যুক্তি ক্ষমতা স্থানান্তর করে না। এটি অনুকরণ শেখায়, যুক্তি নয়। "Claude-শৈলীর chain of thought-এর অত্যধিক কল্পনা বা কুসংস্কারমূলক প্রতিলিপির কোনো প্রয়োজন নেই," মডেল কার্ড পড়ে। পরিবর্তে, তিনি উত্তরের মান, কাঠামোগত স্পষ্টতা এবং কথোপকথনের স্বাভাবিকতার উপর মনোনিবেশ করেছেন—Gemma-র কঠোর Wikipedia টোন এবং আপনি যা জিজ্ঞাসা করেননি তা নিয়ে আপনাকে বক্তৃতা দেওয়ার প্রবণতা ঠিক করেছেন।
AI অবকাঠামো প্রকৌশলী Kyle Hessling স্বতন্ত্র বেঞ্চমার্ক চালিয়েছেন এবং ফলাফলগুলি সরাসরি মডেল কার্ডে প্রকাশ করেছেন। 26B ভেরিয়েন্টের উপর তার রায় বেশ অনুকূল ছিল। "এটিকে বেশ কঠিনভাবে বেঞ্চ করতে পেরে খুশি এবং এটি ইতিমধ্যে ব্যতিক্রমী একটি মডেলের একটি চমৎকার ফাইন-টিউন," তিনি X-এ লিখেছেন। "এটি দীর্ঘ প্রসঙ্গের উপর one-shot অনুরোধে দুর্দান্ত, এবং MOE (mixture of experts) আর্কিটেকচারের জন্য অবিশ্বাস্যভাবে দ্রুত চলে।"
ছোট E4B ভেরিয়েন্ট সমস্ত 14টি মূল দক্ষতা পরীক্ষায় উত্তীর্ণ হয়েছে—নির্দেশনা অনুসরণ, কোডিং, গণিত, বহু-পদক্ষেপ যুক্তি, অনুবাদ, নিরাপত্তা, ক্যাশিং—এবং 30K এবং 60K টোকেনে সমস্ত 12টি দীর্ঘ-প্রসঙ্গ পরীক্ষা পাস করেছে। needle-in-haystack পুনরুদ্ধারে, এটি YaRN 8× RoPE স্কেলিং সহ এক মিলিয়ন টোকেনে একটি স্ট্রেচ পরীক্ষা সহ 13টির মধ্যে 13টি প্রোব পাস করেছে।
26B নেটিভভাবে 131K প্রসঙ্গে প্রসারিত হয় এবং YaRN-এর সাথে 524K পর্যন্ত যায়, যা Hessling স্ট্রেস-পরীক্ষাও করেছেন: "এটি আমার সাধারণ needle-in-the-haystack পরীক্ষাগুলি 524k-এর বর্ধিত প্রসঙ্গ পর্যন্ত চূর্ণ করেছে!"
এজ হার্ডওয়্যারে, E4B সত্যিই দ্রুত। Jackrong iPhone 17 Pro Max-এ সেকেন্ডে 45–60 টোকেন এবং MLX-এর মাধ্যমে MacBook Air M3/M4-এ সেকেন্ডে 90–120 টোকেন রিপোর্ট করেছেন। 26B MoE আর্কিটেকচার মানে এটি ইউনিফাইড মেমরি সিস্টেম বা 10GB-এর কম VRAM সহ GPU-তে সুন্দরভাবে অফলোড করে। Hessling এটিকে VRAM-ক্ষুধার্ত সেটআপের জন্য তার দৈনিক ড্রাইভার সুপারিশ বলেছেন।
উভয় মডেল GGUF ফর্ম্যাটে উপলব্ধ, যার অর্থ আপনি কনফিগারেশন ছাড়াই সরাসরি LM Studio বা llama.cpp-এ এগুলি ড্রপ করতে পারেন। সম্পূর্ণ প্রশিক্ষণ কোড এবং একটি ধাপে ধাপে ফাইন-টিউনিং গাইড Jackrong-এর GitHub-এ রয়েছে—একই পাইপলাইন যা তিনি Qwopus-এর জন্য ব্যবহার করেছিলেন, একই Unsloth এবং LoRA সেটআপ, Colab-এ পুনরুৎপাদনযোগ্য।
Gemopus তার রুক্ষ প্রান্ত ছাড়া নয়। llama.cpp এবং LM Studio-তে পুরো Gemma 4 সিরিজ জুড়ে টুল কলিং ভাঙা রয়ে গেছে—কল ব্যর্থতা, ফর্ম্যাট অমিল, লুপ—তাই যদি আপনার ওয়ার্কফ্লো বাহ্যিক টুল ব্যবহার করে এজেন্টদের উপর নির্ভর করে, তাহলে এটি এখনও আপনার মডেল নয়। Jackrong নিজেই এটিকে "একটি সম্পূর্ণ উৎপাদন-প্রস্তুত সমাধানের পরিবর্তে একটি প্রকৌশল অন্বেষণ রেফারেন্স" বলে অভিহিত করেছেন এবং যে কারোর জন্য যাদের প্রকৃত কাজের জন্য আরও স্থিতিশীল কিছু প্রয়োজন তাদের জন্য তার নিজস্ব Qwopus 3.5 সিরিজ সুপারিশ করেছেন।
এবং যেহেতু Jackrong ইচ্ছাকৃতভাবে আক্রমণাত্মক Claude-শৈলীর chain-of-thought পাতন এড়িয়ে গেছেন, এটি Qwopus-এর মতো গভীরভাবে Opus-মস্তিষ্কের মতো মনে হওয়ার আশা করবেন না—এটি স্থিতিশীলতার জন্য একটি সচেতন ট্রেডঅফ ছিল, কোনো ভুল নয়।
যারা বিশেষভাবে যুক্তির জন্য Gemma ফাইন-টিউনিং-এ আরও গভীরে যেতে চান তাদের জন্য, একটি পৃথক সম্প্রদায় প্রকল্পও দেখার যোগ্য: ছদ্মনামী ডেভেলপার DJLougen-এর Ornstein, যা একই 26B Gemma 4 বেস নেয় এবং বিশেষভাবে কোনো নির্দিষ্ট তৃতীয় পক্ষ মডেলের যুক্তি বা শৈলীর উপর নির্ভর না করে এর যুক্তি চেইন উন্নত করার উপর মনোনিবেশ করে।
একটি সৎ সতর্কতা: ফাইন-টিউনারদের জন্য Gemma-র প্রশিক্ষণ গতিবিদ্যা Qwen-এর চেয়ে বেশি অগোছালো—বিস্তৃত ক্ষতির ওঠানামা, আরও হাইপারপ্যারামিটার সংবেদনশীলতা। Jackrong নিজেই তাই বলেছেন। আপনার যদি উৎপাদন ওয়ার্কফ্লোর জন্য আরও যুদ্ধ-পরীক্ষিত স্থানীয় মডেল প্রয়োজন হয়, তার Qwopus 3.5 সিরিজ আরও দৃঢ়ভাবে যাচাইকৃত থাকে। কিন্তু আপনি যদি Opus-শৈলীর পালিশ সহ একটি আমেরিকান মডেল চান, Gemopus বর্তমানে আপনার সেরা উপলব্ধ বিকল্প। একটি ঘন 31B Gemopus ভেরিয়েন্টও পাইপলাইনে রয়েছে, Hessling এটিকে "নিশ্চিতভাবে একটি ব্যাংগার" হিসাবে টিজ করছেন।
আপনি যদি আপনার নিজের হার্ডওয়্যারে স্থানীয় মডেল চালানোর চেষ্টা করতে চান, তাহলে স্থানীয় AI দিয়ে কীভাবে শুরু করবেন সে সম্পর্কে আমাদের গাইড দেখুন।
Daily Debrief Newsletter
প্রতিদিন শীর্ষ সংবাদের গল্পগুলি এখনই শুরু করুন, সাথে মূল বৈশিষ্ট্য, একটি পডকাস্ট, ভিডিও এবং আরও অনেক কিছু।
সূত্র: https://decrypt.co/364344/gemopus-gemma-4-claude-opus-style-local-ai





