يعتقد المتخصصون أن قراءنا ومتتبعينا أكثر دراية بـ ChatGPT مقارنةً بالأشخاص الاخرين - فمعظم قرائنا هم
من المتخصصين الرقميين. ولكن قلة منهم يعرفون كيفية عمل ChatGPT وقلة يعرفون تاريخ تطورها. لذا، قررنا تقديم
شرح شامل - فهم مبادئ عمل الشبكة العصبية على مستوى أساسي سيساعد في استخدامها بشكل أكثر فعالية.
شرح شامل - فهم مبادئ عمل الشبكة العصبية على مستوى أساسي سيساعد في استخدامها بشكل أكثر فعالية.
في هذه
المقالة، نشرح كيف يعمل ChatGPT، ونستعرض تاريخ تطور الشبكة العصبية، ونتنبأ
بما سيكون في GPT-5. إذا كنت ترغب في تعلم كيفية العمل مع
الشبكة العصبية، لدينا دليل مفصل: "نظرة عامة على ChatGPT: ما الذي يمكنها فعله وكيفية استخدامها
بفعالية.
يمكنك دمج نموذج اللغة GPT-4، الذي يعتمد عليه ChatGPT، في خدمتك عبر الإنترنت من خلال API.
تعتمد على هذا النموذج خدمات مثل Copy.Ai وWritesonic وGerwin AI. إذا كانت لديك فكرة لاستثمار ChatGPT، فلا يتعين عليك بالضرورة إنشاء موقع ويب باهظ الثمن على الفور: يمكنك إنشاء بوت Telegram
كنموذج أولي. يمكنك إنشاء مهمة لمطوري البوتات على منصة Workspace، وهي المنصة الأولى للمناقصات في المجال الرقمي: اجمع العروض واختر أفضل منفذ.
كيف
يعمل ChatGPT؟
ببساطة، ChatGPT هو واجهة على شكل بوت محادثة تعمل كوسيط بين المستخدم ونموذج اللغة GPT. النسخة المدفوعة من المنتج تعتمد على نموذج اللغة GPT-four، بينما النسخة المجانية تعتمد على GPT-three.5. لفهم مبدأ عمل الشبكة العصبية، سنشرح كيفية عمل نماذج اللغة من عائلة GPT.
تستخدم جميع إصدارات GPT نهج النمذجة السببية. أي أنها تقوم ببساطة بتحديد الكلمة التالية بناءً على تحليل الكلمات السابقة. على سبيل المثال، تقوم الإصدارات الأحدث من T9 بنفس الشيء، حيث تقترح الكلمة التالية بناءً على النص المدخل. يتمتع نظام T9 بهذه القدرة بفضل نموذج اللغة البسيط الذي يشكل جزءًا منه.
مثال على وظيفة الإكمال التلقائي التي تخمن الكلمة التالية بناءً على النص المدخل
تعتمد الشبكات العصبية من عائلة GPT على بنية الشبكات العصبية العميقة المسماة "Transformer". تم اختراع هذه البنية في عام 2017 في Google Brain - مجموعة بحثية تابعة لجوجل تتخصص في دراسة وتطوير الشبكات العصبية. كان إنشاء بنية "Transformer" نقطة تحول في تصميم الشبكات العصبية، مما أتاح إنشاء منتج ذكي مثل ChatGPT.
ما هي ميزة بنية "Transformer": تتكون الشبكة العصبية من طبقات منفصلة تعمل بشكل متوازٍ، مما يسمح لها بالتقاط السياق والاعتمادات طويلة الأجل في الطلب. بالنسبة لنماذج اللغة، يعني هذا أن الشبكة العصبية تولد الكلمة التالية بناءً على جميع الكلمات السابقة في الطلب والعلاقات بينها. يوفر T9 الأقل تقدماً الكلمة التالية بناءً على كلمة واحدة سابقة فقط - بسبب بنية أقل تقدمًا.
مثل الشبكات
العصبية الأخرى، GPT هي نموذج لغة يعتمد على الأنماط الإحصائية،
ولا يتمتع بفهم حقيقي أو وعي. بل يتوقع ببساطة الكلمات التالية المحتملة بناءً على
المعلومات التي تدرب عليها. لقد قرأ النصوص وحدد الأنماط وأنشأ خوارزميات بناءً
على هذه الأنماط لاستخدامها في التوليد اللاحق.
سمحت البنية النمطية لـ "Transformer" بتوسيع الشبكات العصبية بشكل كبير، بتغذيتها بكميات هائلة من البيانات دون فرض متطلبات غير معقولة على القدرة الحسابية. وبالتالي، تصبح النصوص المولدة بواسطة GPT أكثر شبهًا بالنصوص البشرية مع كل تحديث. ومع زيادة عدد الخوارزميات في الشبكة العصبية، تصبح إجاباتها نصائح مفيدة بشكل متزايد.
سنحاول تفكيك بنية نموذج اللغة GPT بحيث يكون مفهوماً للجميع.
كيف يعمل نموذج اللغة GPT يتكون GPT من طبقة إدخال وكتل Transformer ومشفّر. في الأساس، هذه هي الشبكات العصبية المنفصلة التي تدخل في بنية "Transformer".
تاريخ تطور ChatGPT: من GPT-1 إلى GPT-4 وما نتوقعه في GPT-5
رسم تخطيطي لإحدى تنوعات بنية "Transformer"
ماذا يحدث في GPT عند إدخال طلب:
تستقبل طبقة الإدخال الطلب الذي نريد معالجته أو استمراره. في هذه الطبقة، يتم تحويل النص إلى متجهات عددية تسمى embeddings. تعكس قرب المتجهات في الفضاء المتجهي الهيكل النحوي والتشابه الدلالي للكلمات. على سبيل المثال، في جملة واحدة قد تعني كلمة "قفل" الحصن، وفي أخرى تعني الشيء الذي يتم إدخال المفتاح فيه.
تساعد الهيكل النحوي والتشابه الدلالي للكلمات. على سبيل المثال، في جملة واحدة قد تعني كلمة "قفل" الحصن، وفي أخرى تعني الشيء الذي يتم إدخال المفتاح فيه.
تساعد embeddings GPT على فهم المعنى الأكثر احتمالية للكلمة وتوليد النص مع مراعاة دلالات الكلمات في الطلب. كما تساعد وتوليد النص مع مراعاة دلالات الكلمات في الطلب. كما تساعد embeddings في إقامة العلاقات بين الكلمات الفردية وفهم الهيكل النحوي للجمل.
يتم معالجة embeddings بواسطة عدة كتل Transformer. تسمح كل كتلة للنموذج بمعالجة والتقاط جوانب مختلفة من النص، مثل الدلالة والنحو والسياق. تتكون كل كتلة من آلية الانتباه وPerceptron متعدد الطبقات.
تسمح آلية الانتباه للنموذج بالتركيز على كلمات معينة في السياق والنظر في تأثيرها عند معالجة بقية النص. تحصل embeddings التي تحددها الشبكة العصبية على أنها "مهمة" على وزن أكبر.
ثم يقوم Perceptron متعدد الطبقات بتحويل البيانات من خلال العمليات الخطية والوظائف غير الخطية فوق embeddings. بفضل ذلك، يكشف GPT العلاقات المعقدة بين embeddings لتوليد نص متماسك وعالي الجودة بشكل أكبر.
بعد أن يمر
الطلب بالعمليات الحسابية عبر عدة كتل، يستخدم GPT المشفّر لتوليد استمرار للنص بناءً على embeddings،
وكذلك أوزانها ومعاييرها بعد العمليات الحسابية. يقوم المشفّر بحساب احتمالات
الكلمات التالية المحتملة ويخرج الأكثر احتمالًا.
مرحبًا عزيزنا القارئ،
شكرًا لزيارتك لموقعنا! نود أن نسمع رأيك. ماذا تعتقد حول ما قرأته؟ هل لديك أي أسئلة أو اقتراحات أو ببساطة ترغب في مشاركة تجربتك؟ اترك تعليقًا أدناه. مساهمتك قيمة وتساعد في إثراء موقعنا. 😊