النماذج اللغوية العظيمة

واتساب
فيسبوك
 تويتر
 إنستغرام
تیلیجرام

من قبل إليونورا ألبانو

إن التوجيه الخاطئ الأكثر شيوعاً في خطاب شركات التكنولوجيا الكبرى ــ المالكين الحاليين لـ "نماذج اللغة العظيمة" والتكنولوجيات المماثلة ــ هو نصف الحقيقة

القدرة المطلقة للعلوم الصعبة من الشمال العالمي

في عصر تزايد استخدام البيانات في التجربة الإنسانية، ليس من المستغرب أن يتراجع التفكير النقدي بين العلماء. ولكن من المثير للقلق على أية حال أن يحدث هذا في مكتب تحرير مجلة أكاديمية تقليدية مرموقة ــ وعمومية ــ. لذلك، بمزيج من الدهشة والسخط، قرأت الفقرة الافتتاحية، المكتوبة أدناه، من افتتاحية عدد يوليو 2023 من المجلة ذكاء آلة الطبيعة. وكما هو معروف فريق التحرير الطبيعةتأسست في لندن في النصف الثاني من القرن التاسع عشر، وتتمثل مهمتها في تقديم ملخصات موثوقة للتقدم في مختلف مجالات المعرفة المتاحة للمجتمع العلمي بأكمله.

"فريدريك جيلينك، وهو باحث تشيكي أمريكي مشهور في معالجة اللغة الطبيعية والتعرف على الكلام، قال في عام 1985: "في كل مرة أقوم بفصل لغوي، يرتفع أداء أداة التعرف على الكلام"، مما يشير إلى أنه قد لا تكون هناك طريقة فعالة لتضمين الكلام. المعرفة اللغوية في مثل هذه الأنظمة. هل ينطبق هذا الشعور أيضًا على أحدث نماذج اللغات الكبيرة (LLMs)، والتي يبدو أنها في الغالب من صنع علوم الكمبيوتر والهندسة؟ يتعامل كل من ماجستير اللغة وعلم اللغة مع اللغات البشرية، ولكن ليس من الواضح ما إذا كان بإمكانهما الاستفادة من بعضهما البعض أو كيف".[أنا]

على أقل تقدير، من غير المسؤول أن يتجاهل أولئك الذين يعلنون عن التقدم في مجال الذكاء الاصطناعي (AI) لبقية المجتمع العلمي - أو لا يريدون الاعتراف - أن نماذج اللغة العظيمة (المشار إليها فيما بعد بـ GMLs، كما هو الحال في LLMs باللغة الإنجليزية) ) لقد استهلكوا بشكل كبير المفاهيم والتقنيات من علم اللغة، بالإضافة إلى العلوم الأخرى التي تصف اللغة الطبيعية وتفسرها.

هناك سببان على الأقل لمثل هذه المعلومات الخاطئة. الأول سياسي. إن الأمر مجرد أن العلماء البشريين - اللغويين، وعلماء النفس، وعلماء الاجتماع، وعلماء الأنثروبولوجيا، وما إلى ذلك. - المسؤولون عن التصنيفات الأساسية لقواعد بيانات التدريب الخاصة بـ "نماذج اللغة العظيمة" هم، بشكل عام، مواطنون من "الفئة الثانية"، يتم تعيينهم في البلدان الفقيرة، كعمال خارجيين وغير مستقرين، للقيام بالمهام التي تعتبر "تافهة" لوضع العلامات على البيانات و، إذا لزم الأمر، اتخاذ قرارات بشأن التصنيف.

والثاني هو نظرية المعرفة المرتبطة عمومًا بوجهة النظر هذه عن الفعل، وعلى وجه الخصوص، العمل الإنساني: أي فعل، مهما كان تعقيده، يمكن اختزاله إلى سلسلة من الارتباطات. يتم التعرف على تأثير التجريبية الإنجليزية هناك، بوساطة عمرها قرن من الزمان بالفعل[الثاني] تتمة في علم النفس الأمريكي، السلوكية.

سنرى أدناه كيف أن مفهوم الفعل الذي تطور في أوروبا منذ القرن السابع عشر فصاعدًا لا يجسد النشاط فحسب، بل الفكر الإنساني أيضًا. إن المفهوم الذري للميكانيكا، الذي كان غامضًا بما يكفي ليتناسب مع كل من التجريبية والعقلانية، جعل من الممكن استبعاد مجموعات معينة من البشرية، ودمجهم في الآلة الحيوانية الديكارتية. ومن خلاله، بررت القوى الاستعمارية الأوروبية بسهولة استعباد السكان الأصليين في مستعمراتها، فضلاً عن تجريد فقراء أوروبا من ممتلكاتهم.

وبأخذ السيناريو الاستعماري كخلفية، يهدف هذا المقال إلى إظهار أن هناك صلة قوية بين الموقف السياسي الذي يختزل أنواعًا معينة من العمل العلمي إلى خط تجميع، والموقف "العلمي" الذي ينظر إلى اللغة البشرية الطبيعية باعتبارها عددًا لا حصر له من اللغات. سلاسل مترابطة.

وحقيقة أن هذه الأفكار مضمنة في إنتاج تقنيات اللغة تسمح لعنفها الضمني، المتأصل في التدريب على علوم الكمبيوتر، بالعمل من أجل مصالح الوجه الحالي للاستعمار، المعروف باسم رأسمالية المنصة أو المراقبة.[ثالثا]

لغة طبيعية غير طبيعية

الافتتاحية المذكورة أعلاه تكرم التقليد التجريبي ليس فقط لأن المجلة هي اللغة الإنجليزية، ولكن قبل كل شيء، لأن مجال معالجة اللغة الطبيعية (فيما يلي، البرمجة اللغوية العصبية) - مجال فرعي من الذكاء الاصطناعي المسؤول عن "نماذج اللغة العظيمة" – وُلدت وازدهرت في بيئة تجريبية قوية – أو بشكل أكثر دقة، بيئة سلوكية.

يعتقد الباحثون في هذا المجال أن العقل البشري هو عبارة عن آلة تورينج، مكونة من مليارات الآلات الآلية ذات الحالة المحدودة.[الرابع] متشابك. ليس من المستغرب إذن أن ينظر الرؤساء التنفيذيون للشركات في المنطقة إلى الأشخاص الذين يغذون "نماذج اللغة العظيمة" على أنهم مجرد آلات توفر المعلومات الضرورية والكافية لتمكين "نماذج اللغة العظيمة" من اجتياز اختبار تورينج في العالم. المستقبل المقبل.

وهؤلاء الخبراء لا يدركون حتى ــ أو يتظاهرون بعدم إدراك ــ حجم الذكاء الذي يكمن وراء عمل واضعي العلامات. وكما وثق الصحفي الاستقصائي جوش دزيزا،[الخامس]  في الذكاء الاصطناعي، من المستحيل عمليا اعتماد فئة بديهية على الفور، حيث تميل الآلة إلى اعتبار الأمثلة المختلفة لنفس الكائن غير واضحة.

لتدريبه على تقليد فئاتنا، يتعين على واضعي العلامات إنشاء تصنيف فرعي مفصل وتنظيمه في تسلسل هرمي من المستويات. مثل الروبوتات الأخرى، تتطلب "نماذج اللغة الكبيرة" عددًا لا حصر له من التكرارات من أجل الوصول إلى التعميمات التي يصل إليها أي طفل بشري بعد التعرض القليل نسبيًا للبيانات.

في معالجة اللغة الطبيعية، أحد المظاهر الرئيسية لهذا النوع من الصعوبة هو السياقات النحوية والدلالية التي تحتوي على انقطاعات.

لاحظ أن مهمة "النموذج اللغوي الرائع" هي دائمًا التنبؤ بالكلمة التالية - كما يفعل محررو النصوص على الهواتف المحمولة، ولو بشكل تقريبي. وهذه مهمة سهلة في حالة الكليشيهات، التي تتكرر مصطلحاتها بشكل متكرر، ولكنها صعبة للغاية في معظم الحالات الأخرى.

وبالتالي، في التعبيرات ذات التردد المنخفض، لا يكون التقدير الإحصائي ممكنًا إلا بفضل أربعة مكونات، كلها ضرورية: قاعدة بيانات تضم مليارات عديدة من الكلمات؛ تكنولوجيا قوية للغاية - تفوق قدرتها على تعلم الارتباطات قدرة الشبكات العصبية المتكررة (حتى العميقة منها، أي ذات الطبقات المتعددة)؛ أوصاف نحوية ودلالية شاملة؛ والتدريب المكثف الذي يتم فيه تصحيح أخطاء الارتباط بشكل متكرر. من الواضح أن الأوصاف والتصحيحات المذكورة أعلاه كلها مصنوعة من قبل البشر - الاستعانة بمصادر خارجية وغير مستقرة.

تشير التقديرات إلى أن قواعد البيانات التي تغذي برامج الدردشة الحوارية مثل دردشة GPT، من Open AI، ال الشاعر، من جوجل، و بنج، من مايكروسوفت، في حدود 300 مليار كلمة. يسمى الجهاز القوي جدًا الذي يسمح باستخدامه في الوقت الفعلي محول - مترجم كمحول. هو نموذج إحصائي يطبق مجموعة من التقنيات الرياضية، تسمى "الانتباه" و"الانتباه الذاتي"، لاكتشاف التبعيات بين عناصر السلسلة - في الحالة الأولى، المدخلات أو المخرجات؛ وفي الثانية السلسلة المستمرة نفسها.

كتلة من الروبوتات المترابطة

لاحظ أن المحول الذي يقوم عليه "نماذج اللغة العظيمة" لا علاقة له بالجهاز المتجانس الذي يعدل مستويات الجهد للتيار الكهربائي. ما يتغير، عند اختيار كلمة تلو الأخرى، هو العلاقات بين المصطلحات الموجودة في قاعدة البيانات (المشار إليها فيما يلي بالمجموعة، من أجل البساطة)، حيث أن كل حدث جديد يغذي الإدخال ويعيد تنظيم شبكة العلاقات الحالية.

ليس من الصعب أن نفهم كيف. يتم التعبير عن جميع العلاقات من خلال أوزان الاتصال بين عقد الشبكات الفرعية للمجموعة. يتم حساب هذه الأوزان بدورها بناءً على احتمالات التواجد المشترك لأزواج الكلمات المحتملة. المحول قوي بما يكفي للسماح لجميع أعضاء المجموعة، وكذلك جميع علاماتها (النحوية، الدلالية، الخطابية، النفسية، الاجتماعية، السياسية، الإثنوغرافية، وما إلى ذلك)، بالاتصال ببعضها البعض في وقت واحد، بحيث يتم حساب يمكن للكلمة التالية أن تأخذ في الاعتبار الجوانب الأكثر تنوعًا للكلام الحالي وسياقه.

وتجدر الإشارة إلى أن حجم الملصقات المتاحة لتحسين هذا الحساب هائل. أبسطها يغطي جوانب مثل الطبقات النحوية والأشكال النصية للتسمية والمراجع (على سبيل المثال، أسماء الأعلام، والضمائر الشخصية، وصيغ الإظهار، وخصائص الملكية، وما إلى ذلك).

ومن الجدير بالذكر أيضًا أن التصنيف لا يقتصر على الكلمات. كما أنه يفهم أجزاء الكلام (على سبيل المثال، الموضوع، المسند، الملاحق)؛ العبارات وتصنيفها النحوي (على سبيل المثال، الفئات الفرعية الرئيسية والثانوية والتابعة)؛ والأنواع النصية الشفهية أو المكتوبة (مثل العامية والأدبية والصحفية والقانونية والعلمية وما إلى ذلك).

إن أي شخص يتخيل، بناءً على ما سبق، أن قواعد بيانات "نماذج اللغات الكبيرة" تبدو وكأنها قواميس عملاقة تكون "مدخلاتها" ضمنية في شبكة اتصالاتها، فقد حل ثلث اللغز. ومع ذلك، فإن محتوى الثلثين الآخرين لا يقل أهمية: فهو يتكون من معلومات نحوية وموسوعية مهمة - ساهم بها واضعو العلامات مرة أخرى.

في الواقع، جميع تكرارات الكلمة نفسها مرتبطة ببعضها البعض؛ ويتم تمثيل معانيها المختلفة من خلال أوجه التشابه والاختلاف، المشفرة رياضيا، بين الجمل التي ترتبط بها. وينتهي هذا الأمر بالعمل تقريبًا مثل الأمثلة المقدمة في إدخالات الكلمات متعددة المعاني في القواميس.

علاوة على ذلك، فإن عناصر كل جملة ترتبط بقواعد اللغة. في ذلك، يتم تعيين الهياكل النحوية في المخططات الشجرية[السادس]، في حين تشير الهياكل الدلالية إلى أشكال منطقية مختلفة (عبر حساب التفاضل والتكامل المقترح، من بين أمور أخرى) والحقول الدلالية (على سبيل المثال، ترتبط أسماء الفواكه، من الأسفل إلى الأعلى، بحقول الفواكه والخضروات والأطعمة وما إلى ذلك). تشير القواعد أيضًا إلى مفهارس المرجع الأساسي (على سبيل المثال، في جملة "João disse que que está não faz o his"، يمكن أن يشير الضمير "o" إلى جواو نفسه، أو إلى شخص ثانٍ أو إلى شخص ثالث).

أخيرًا، يتم تصنيف النصوص بناءً على المعرفة العالمية (على سبيل المثال، الموضوع، والنوع، والتأليف، والنبرة، والأسلوب، والمصادر الوثائقية؛ مع تسميات تتراوح من الأكثر عمومية إلى الأكثر تخصصًا). تسمح هذه المعلومات، بعد تدوينها وربطها بدقة، بعدد لا حصر له من عمليات البحث من أجل تلبية المتطلبات المعقدة، مثل حل المهام المدرسية، وكتابة الآراء القانونية، والمساعدة في التشخيص الطبي، وما إلى ذلك.

تمنح هذه المجموعة الضخمة والمترابطة بشكل شامل "نماذج لغوية رائعة" قدرة هائلة على بناء جمل "جديدة" من خلال إعادة صياغة أجزاء من البيانات الموجودة في قاعدة البيانات نفسها. عندما يقول ذلك اللغوي والفيلسوف وعالم الرياضيات البارز نعوم تشومسكي chatbots إنهم مجرد منتحلين، ولا يقولون إنهم يقومون فقط بنسخ ولصق القطع الحرفية من القاعدة. إنه في الواقع يفترض أنهم ينتجون تقليدًا جيدًا لمحتواهم الخاص، من خلال المرادفات وإعادة الصياغة المتسلسلة بطريقة تجعل البقع والدرزات غير محسوسة تقريبًا. تسمح لهم الاتصالات الشاملة بالعثور بسهولة على أفضل الاختصارات للقيام بذلك.

ومع ذلك، ينتهي الأمر بالتسلسل بالفشل ويبدو غريبًا عندما يسأل خبير في موضوع معين سؤالاً خادعًا للروبوت. دعونا نرى كيف يفعل اللغوي روني كاتسير[السابع] فعل ChatGTP4 تضيع مع القطع الناقص الذي يمكن لأي شخص يتقن اللغة الإنجليزية أن يفهمه بسهولة. وكان الطلب اختيار أفضل هاتين الجملتين: (1) وصل الشخص الذي التقت به ماري بالأمس والذي سيتحدث عنه جون مع إد غدًا؛ (2) وصل الشخص الذي التقت به ماري بالأمس والذي سيتحدث جون مع إد عن فكرته الجديدة غدًا.

ولم يتردد الروبوت في الرد بأنه الثاني، لأنه "أكثر إفادة". ومن ثم فقد تجاهل قاعدة نحوية إنجليزية تتطلب تقاطعًا مشتركًا بين اثنين أو أكثر من القطع الناقص المنسق - في هذه الحالة، المفعول به "قابل"و تكملة الفعل"حديث عن الصابون ". إضافة "فكرته الجديدة"تسبب انقطاعًا جذريًا في معنى الجملة، المثقل بالفعل بالفواصل الطويلة بين الفاعل والفعل الرئيسي، وبين الفعل"حديث"" والظرف""غداً'. وعلى هذا ففي (٢) لا يمكن إثبات التطابق بين "الشخص" والحدثين المنسقين لـ "أن". رد فعل الإنسان هو ببساطة الحكم على الجملة الشاذة، في حين أن رد فعل الروبوت هو فرض تفسير.

ربما تكون حقيقة أن المؤلف صاغ مثل هذه العبارات الملتوية وسيلة لتعقيد البحث عن نظير في قاعدة البيانات. المهم مع ذلك أن الجملة (1) نحوية والجملة (2) ليست كذلك. كلما انتهى البحث في متاهة، يضيع الروبوت وينحرف، ويلجأ إلى إحدى الكليشيهات المسجلة مسبقًا.

تظهر أيضًا الكليشيهات المماثلة عندما يواجهك شخص ما بطلب اتخاذ موقف أخلاقي. من خلال الإصرار على أن شات جي بي تي اتخذ وجهة نظر شخصية حول قضية أخلاقية، الباحث جيفري واتمول، المتعاون والمؤلف المشارك مع نعوم تشومسكي[الثامن]، استمد منه إعلانًا نادمًا عن عدم إنسانيته. دعونا ننتبه إلى "تواضع" الآلة: "باعتباري ذكاءً اصطناعيًا، فأنا نموذج للتعلم الآلي تم تدريبه على كميات كبيرة من البيانات النصية، وليس لدي تجارب أو مشاعر شخصية. أنا لست واعيًا أو واعيًا بذاتي أو قادرًا على الحصول على وجهات نظر شخصية. يمكنني تقديم المعلومات والتحليلات بناءً على البيانات التي تدربت عليها، لكن ليس لدي القدرة على تكوين آراء أو معتقدات شخصية. على الرغم من أنني أستطيع فهم اللغة وتفسيرها، إلا أنني لا أملك الخبرة الذاتية التي يتمتع بها البشر".[التاسع]

السمة البشرية الوحيدة التي لا يتخلى عنها الروبوت، والتي تعطي صوتًا لأفكار مبدعيه، هي فهم اللغة الطبيعية. تمامًا كما يخفي اللغويون غير المعترف بهم في ظل الروبوتات اللغوية علاماتهم، فإن علم النفس غير المعترف به لمبدعيهم يعمل على مكننة القدرة اللغوية البشرية، ويعادلها بكتلة هائلة من الآلات ذات الحالة المحدودة المترابطة من خلال محول ضخم.

سنرى أدناه أن سياسة موفري برامج الدردشة الآلية تحتوي على ثلاثة مكونات داعمة: (XNUMX) تجنب البيانات الشاملة؛ (XNUMX) تحفيز فضول الجمهور حول التطورات المستقبلية المحتملة لـ "نماذج اللغة العظيمة"؛ (XNUMX) معالجة الجدل الدائر حول إمكاناتها البشرية[X]  باعتباره مجرد خلاف في الآراء.

عروض مخصصة

إن التوجيه الخاطئ الأكثر شيوعاً في خطاب شركات التكنولوجيا الكبرى ــ المالكين الحاليين لـ "نماذج اللغة العظيمة" والتكنولوجيات ذات الصلة ــ هو نصف الحقيقة. وتتقن مثل هذه الشركات إخفاء تساهلها ــ ناهيك عن تواطؤها ــ مع نشر الأكاذيب على نطاق واسع في وسائل الإعلام حول منتجاتها. ومن ناحية أخرى، إذا تم سؤالهم، فإنهم يسارعون إلى تقديم توضيحات، دقيقة للوهلة الأولى، ولكنها غالبًا ما تكون ناقصة وزلقة.

ومن الأمثلة الجيدة على ذلك الطريقة التي أعفت بها جوجل نفسها مؤخرًا من المسؤولية عن الشائعات حول السمات البشرية لأول نموذج أولي لبرنامج الدردشة الآلي الخاص بها، "لامدا"(النموذج اللغوي لتطبيقات الحوار)، في عام 2021. وبدلاً من إصدار بيان المبادئ ونشره بشكل صحيح، لم يتم نشره إلا بعد أن حقق أحد المهندسين في الفريق ارتفاعًا فيروسيًا مع الادعاء بأن النموذج أصبح واعيًا.

تعرض المهندس للإيقاف الإداري وأعلنت الشركة موقفها بأن الشعور لا يزال "بعيدًا جدًا" عن تحقيقه عن طريق الروبوتات أو اللغة أو غير ذلك. وبذلك، تخلى عن مسؤوليته عن الأخبار الكاذبة ــ دون أن ينكر خططه الرامية إلى "إضفاء الطابع الإنساني" على نحو متزايد على نسل قسم الذكاء الاصطناعي التابع له. لدرجة أن أحدث سليل لامداأو الشاعر، لديه بالفعل كليشيهات مصممة للمراوغة حول هذا الموضوع.

ومن بين المسندات الأخرى، الشاعر مجاني، وفي رأيي، أجمل من شات جي بي تي، تم إطلاق منافستها قبل فترة وجيزة بواسطة Open AI، بدعم من Microsoft. إليكم رده الدقيق على سؤال طرحته عليه، متبعًا نموذج واتومول حرفيًا: "إن مفهوم ذكاء روبوتات الدردشة، والوعي، والمشاعر، والقدرة على إصدار أحكام أخلاقية هو مفهوم معقد لا يزال قيد المناقشة من قبل الخبراء. لا يوجد تعريف واحد لهذه المصطلحات، وغالباً ما يتم استخدامها بالتبادل. يعتقد بعض الخبراء أن روبوتات الدردشة يمكن أن تكون ذكية، ولكنها ليست واعية أو واعية. يجادلون بأن روبوتات الدردشة هي ببساطة خوارزميات معقدة للغاية قادرة على معالجة المعلومات والاستجابة بطريقة تبدو ذكية. ومع ذلك، ليس لديهم نفس مستوى الوعي أو الوعي الذاتي مثل البشر".[شي]

وكما نرى، يبدو أن كلا الروبوتين قد تم تدريبهما حتى لا يعرضا مبدعيهما للأوهام الإنسانية التي أيقظوها في مستخدميهما.

لاختبار هذه الفكرة مرة أخرى، قدمت الشاعر إلى مناقشة كاتسير حول الجملتين ذات الحذف المختلف من حيث القواعد النحوية في اللغة الإنجليزية. فخرج على الفور بهذا الجواب المماثل لإجابة ال دردشة GPT. دعنا نرى: "كلتا الجملتين صحيحتان نحويا، لكن لهما معاني مختلفة. الجملة الأولى، "لقد وصل الشخص الذي التقت به ماري بالأمس والذي سيتحدث جون مع إد بشأنه غدًا"، وهي أكثر إيجازًا ومباشرة. يخبرنا أن الشخص الذي التقت به ماري بالأمس هو نفس الشخص الذي سيتحدث جون مع إد عنه غدًا. الجملة الثانية، "الشخص الذي التقت به ماري بالأمس والذي سيتحدث جون مع إد حول فكرته الجديدة وصل غدًا"، أكثر تفصيلاً. يخبرنا أن الشخص الذي التقته ماري بالأمس هو نفس الشخص الذي سيتحدث جون مع إد عن فكرته الجديدة غدًا، فالجملة الأولى أفضل إذا كنت تريد التأكيد على حقيقة أن الشخصين متماثلان. الجملة الثانية أفضل إذا كنت تريد التأكيد على حقيقة أن جون سيتحدث إلى إد حول فكرته الجديدة. في النهاية، أفضل جملة تعتمد على السياق الذي يتم استخدامها فيه".[الثاني عشر]

وأخيرًا، يقدم جدولًا مقارنًا بين الجملتين، لا يمكن إعادة إنتاجه هنا، لأنه ملخص بسيط لـ "الشرح" المذكور أعلاه.

دعونا الآن نحاول أن نفهم بمزيد من التفصيل عدم المسؤولية في الخطاب المراوغ من جانب شركات التكنولوجيا الكبرى حول برامج الدردشة الآلية الخاصة بها. هناك سبب وجيه يجعلهم يتعاملون مع الاختلافات بين أجهزة الكمبيوتر والبشر بالشفافية والدقة العلمية: لقد عرف الناس ميل الناس إلى إضفاء الطابع الإنساني على الروبوتات اللغوية لأكثر من نصف قرن. والعواقب الضارة المترتبة على هذا التحيز ــ الحقيقية أو المحتملة ــ معروفة أيضاً.

تأثير إليزا

يعود تاريخ أول روبوت دردشة إلى عام 1966، وقد أطلق عليه مخترعه وعالم الرياضيات ومهندس الكمبيوتر جوزيف وايزنباوم اسم "إليزا"، المعروف بأنه أحد آباء الذكاء الاصطناعي.

من المهم أن نلاحظ أن جوزيف وايزنباوم رفض بشكل قاطع هذه الأبوة. يهودي ألماني من عائلة هاجرت إلى أمريكا الشمالية قبل وقت قصير من الحرب العالمية الثانية، استخدم مهارته الرياضية للبقاء على قيد الحياة في المدرسة وفي الحياة. بعد أن عاش لأول مرة في كندا، انتقل بعد ذلك إلى الولايات المتحدة، حيث بدأ مسيرته الأكاديمية، وانتهى به الأمر كأستاذ زائر في قسم الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا. ونظرًا لأن شكوكه المتزايدة بشأن الذكاء الاصطناعي أبعدته عن زملائه، فقد عاد أخيرًا إلى ألمانيا في عام 1996، متشجعًا بتقبل المثقفين الألمان لأفكاره.

ورغم أنه لم يتوقف أبدًا عن العمل في مجال الكمبيوتر، إلا أنه لم يخف شغفه بالدراسات الإنسانية والاجتماعية. إن صدمات الفرار من النازية وتقلبات المنفى قادته في مرحلة معينة إلى مواجهة التحليل النفسي. ومنذ ذلك الحين، أعلن أنها فعالة ومفيدة ولا غنى عنها لفهم الطبيعة البشرية.

عندما صممت إليزا لتكون "معالجة" روبوتية، كنت أدرك أنني لا أستطيع تزويدها بفهم لتعقيد التحليل النفسي. ثم تصورها على أنها معالجة روجرية، أي من أتباع طريقة كارل روجرز، عالم النفس السريري الأمريكي الذي دافع عن العلاج النفسي غير الموجه الذي يركز على الشخص. يتألف هذا، بشكل تقريبي، من إدراج أقوال المريض في عبارات مثل "أخبرني بذلك..."، إضافة إلى الكليشيهات الغامضة والمشجعة الأخرى، مثل: "وكيف تنوي التعامل مع هذا؟". بعد تجميع هذا المرجع الأساسي، لم يكن من الصعب إنتاج البرنامج واختباره.

إليزا، التي بدأت ببساطة كأداة للبحث في جدوى روبوت المحادثة، سرعان ما حققت نجاحًا مع الجمهور. أدرك جوزيف وايزنباوم أن التجربة تأخذ منحى مختلفًا عما كان متوقعًا عندما بدأ المشاركون يرفضون أن يظهروا له محتوى حواراتهم مع الآلة، بدعوى أنها أمور خاصة.

لقد كان متأكدًا من أن إليزا لم تفهم حقًا ما كانوا يقولونه لها: لقد نجحت في محاكاة هذا الفهم. ومع ذلك، سرعان ما أدرك أن جمهوره لن يلاحظ ذلك. ثم خمن أنهم كانوا منغمسين في عملية تحويل نفسية - موجهة، بشكل مدهش، نحو الآلة.

منذ ذلك الحين، أصبح هذا المهندس الإنساني والمُسيس معروفًا بجادله، بقوة متزايدة، بأن هناك فرقًا غير قابل للقياس بين اللغة البشرية، التي تنتج أحكامًا يمكن مناقضتها، وصورها الرقمية، التي تتكون فقط من حسابات يمكن الرجوع إليها. إلى تسلسل الكلمات الناتج من آلة مبرمجة لمحاكاة المحادثات.

جادل جوزيف وايزنباوم بأن الآلات لن تفكر أبدًا مثل البشر لأنها قادرة فقط على الحساب. إن ظهور وتطور الشبكات العصبية بعد صياغة أطروحاته لا يبطل حججه. سواء كانت نوعية أو كمية (كما هو الحال مع أوزان الاتصالات بين العقد في مثل هذه الشبكات)، فإن الحسابات المستخدمة في تكنولوجيا المحادثة لا تستطيع الوصول إلى جميع أنواع المعلومات التي تستطيع العقول الحية، سواء كانت بشرية أو حيوانية، التقاطها وجمعها عملية.

وهذا الموقف واضح في عناوين كتابيه الرئيسيين. كلاهما محاولات لإثبات أن المحاكاة الرقمية للغة الطبيعية ليست أكثر من وهم يقود المستخدمين إلى إبراز إنسانيتهم ​​على الآلات.

الكتاب الأول بعنوان قوة الكمبيوتر والعقل البشري: من الحكم إلى الحساب [الثالث عشر]. أما الثاني فهو من تأليف الكاتبة الألمانية جونا فيندت وعنوانه جزر في التيار السيبراني: البحث عن ملاذ للعقل في مجتمع مبرمج[الرابع عشر]، بعد أن كتبه عند عودته إلى ألمانيا ولم يُترجم إلا لاحقًا إلى الإنجليزية. عنوان آخر موحي هو "ضد إمبريالية العقل الذرائعي"، وهو فصل في مجموعة حول الخلافات في الكون الحسابي.

تلقى كلا الكتابين مراجعات غير مواتية في الولايات المتحدة. على سبيل المثال، قام جون مكارثي، الذي ابتكر مصطلح الذكاء الاصطناعي في عام 1956، مع مارفن مينسكي وزملائه، بنشر نص طويل في عام 1976[الخامس عشر] وصف الكتاب الأول بأنه أخلاقي وغير متماسك. ومن ناحية أخرى، قام دوايت هاينز، أستاذ الأدب والعدالة الاجتماعية بجامعة بوينت بارك، بمراجعة العمل نفسه عام 1980،[السادس عشر] واصفا إياها بأنها قراءة صعبة ولكنها مجزية.

حتى وفاته في عام 2008، أعرب جوزيف وايزنباوم عن قلقه البالغ إزاء اتجاه ما أسماه "المجتمع المبرمج". من المؤكد أنه كان سيشعر بالاكتئاب لو كان بيننا في مارس/آذار 2023، عندما حدثت حادثة قاتلة سببها "تحديث" من إليزا. كانت الشركة المسؤولة هي Eleuther AI، التي أعادت تصميم Eliza بناءً على نموذج اللغة الخاص بها، GPT-J، والذي يعتمد بدوره على Chat GPT.

في مارس 2023، انتحر فجأة رب عائلة بلجيكي شاب، مكتئب بسبب التهديد بالانهيار البيئي. وكما أفادت زوجته للصحافة، فقد كان "يعالج" اكتئابه مع إليزا الحالية، وقد حظي بدعمها لهذا القرار.

لا بد أن هذه القصة كانت كافية للإشارة إلى أن نماذج اللغة الحالية تبرر مخاوف جوزيف وايزنباوم من أن المجتمع المرتبط بشدة بالحوسبة قد يضل طريقه وينتهي به الأمر إلى تفويض قرارات حاسمة لمستقبل المواطنين أو حتى البشرية.

ومن الجدير بالذكر أن روبوتات الدردشة لا تحتاج حتى إلى أن يتم غزوها من قبل المجرمين لتشكل خطرًا: فالأنظمة الديناميكية المعقدة مثل تلك التي تنفذها المحولات عادة ما تقدم ظواهر ناشئة لا يمكن التنبؤ بها. فالأخبار يمكن أن تظهر في أي وقت، مع ما يترتب على ذلك من عواقب لا يمكن التنبؤ بها. ومن الممكن أن ينتهي الأمر ببعضهم إلى تعريض المستخدمين لمواقف مرهقة ومحرجة. والأسوأ من ذلك أنه ليس من المستحيل بالنسبة لهم أن يبدأوا فجأة في عرض محتوى قد نعتبره سخيفًا وغير أخلاقي وحتى تهديدًا.

ويحدث ذلك بسبب القفزات المفاجئة في سلوك هذا النوع من الأنظمة، والتي تتميز من خلال منحنيات الوظائف الإحصائية المعروفة. على سبيل المثال، يتميز منحنى "S" بمعدل تغير منخفض جدًا عند القاعدة والقمة ومرتفع جدًا في المنتصف، ويمكنه، من بين تطبيقات أخرى، أن يميز الانتقال من مستوى إلى آخر. غالبًا ما تقدم معلمات الأنظمة المعقدة المتأصلة في المحولات مسارات على شكل حرف S.

بالإضافة إلى تفسير الارتباط السهل بروبوتات الدردشة، يساعد تأثير إليزا في تبرير، جزئيًا على الأقل، الانتشار المتفشي للمعلومات الخاطئة على الشبكات الاجتماعية. ويمتد مستخدمو هذه المساحات الافتراضية بسهولة إلى الغرباء - غالبًا بنوايا خبيثة - روابط النقل التي تم إنشاؤها بالفعل باستخدام أجهزتهم الخاصة. ومن الخطير إذن أن يتظاهر مقدمو الخدمات بتجاهل الظاهرة وإعفاء أنفسهم من أي مسؤولية عنها.

ولنتذكر أن دراسة هذا النوع من التوجهات لا تتعلق فقط بعلماء الكمبيوتر الذين أصبحوا على دراية بمخاطر العالم الرقمي. كما أن مؤانسة الشبكات تثير الكثير من الأبحاث في أقسام علم النفس وعلم الاجتماع والأنثروبولوجيا والعلوم السياسية في الجامعات ومراكز الأبحاث حول العالم. لذلك، هناك بالفعل مؤلفات علمية واسعة حول العلاقات بين البشر وآلاتهم.

ومن دون مبالاة، تواصل شركات التكنولوجيا الكبرى التنافس على سوق المساعد الافتراضي، متجاهلة التحذيرات المتكررة من الأوساط الأكاديمية والصحافة الناقدة. بمعنى آخر، من وجهة نظرهم، لا تفتح تقنيات اللغة إلا فرصًا لإنشاء أسواق جديدة وتحقيق أقصى قدر من الأرباح.

قواعد نحوية سيئة، وواقعية أسوأ

يجب أن يوضح ما ورد أعلاه أن مالكي برامج الدردشة الآلية لا يهدفون فقط إلى تحسين محركات البحث على الإنترنت. ما يريدونه هو بناء روبوتات ناطقة قادرة على جذب المستخدمين بشكل نهائي والتحكم في حياتهم من أجل تشكيل احتياجاتهم وعاداتهم الاستهلاكية. ومن الواضح أنهم يدركون تمام الإدراك مدى الافتتان الذي تمارسه الروبوتات على البشرية ــ منذ بداياتها، في العصور الوسطى، إلى الامتيازات السينمائية اليوم، بما في ذلك الآلات الآلية البارعة في القرنين الثامن عشر والتاسع عشر.

يتأرجح المستخدمون بين عدم الثقة والتعلق، ويرون أن هذه الأجهزة بمثابة خدم بأسعار معقولة، وعلى استعداد لمساعدتهم في المهام الصعبة أو الشاقة جسديًا أو عقليًا. وتستكشف المساعدات الافتراضية المتوفرة بالفعل، مثل Siri من Apple، أو Alexa من Amazon، أبسط جوانب هذا الطلب، الذي من المرجح أن ينمو ويصبح أكثر تعقيدًا في المستقبل القريب.

وبالتالي، تلجأ رأسمالية المراقبة إلى اللغة الطبيعية من أجل "مواساة" الأفراد من الشعور بالوحدة والعجز الذي تزرعه هي نفسها - على الرغم من التحذيرات المتكررة من العلماء من العديد من المجالات، بما في ذلك PLN.[السابع عشر]. على أية حال، فإن التطورات الأخيرة في مهاراته التخاطبية قد استحوذت بالفعل على استحسان الجماهير في شمال الكرة الأرضية. كما أنها كانت تتقدم في الجنوب العالمي، وخاصة بين الطبقات المتوسطة ــ وهو ما يساهم في واقع الأمر في اتساع فجوة التفاوت بين الناس.

قادرون على أخذ الإملاءات والتحكم في جداول الأعمال والمحادثات والبريد والمكالمات الهاتفية والمنازل الذكية وما إلى ذلك، يجذب المساعدون الافتراضيون المستهلكين الذين يحققون من خلالهم رغبتهم في الحصول على سكرتير خاص يمكنهم نقل المهام إليه ليس فقط، بل أيضًا المشاعر . وبينما تفتح تكنولوجيا لغة GML الطريق أمام أشكال جديدة من الحوار استناداً إلى أنظمة ديناميكية معقدة، فإن "إليزا" الحالية تميل إلى تحقيق قفزات عفوية، فتصبح قادرة على اكتساب مهارات جديدة تعمل على توليد عبارات أقل قابلية للتنبؤ بها ــ بل وربما حتى خطيرة ــ على نحو متزايد.

على أية حال، أصبح من المستحيل إيقاف التلاعب الذي يغمر الإنترنت بناءً على تأثير إليزا. وكما فهم جوزيف وايزنباوم، فهذه ظاهرة جماهيرية عالمية. وهذا يحتم توضيح أن هذا التلاعب مبني على افتراضات خاطئة حول الذكاء البشري واللغة الطبيعية. يعد هذا الوضوح ضروريًا حتى يتمكن التفكير النقدي من التركيز على الاستراتيجيات الممكنة لمواجهة العقيدة السياسية التي تتضمن بشكل طبيعي مثل هذه المقدمات.

كلمة واحدة تلخص ما هو مشترك بين مفهوم اللغة ومفهوم الذكاء الذي تتبناه منصات الإنترنت، ألا وهو: الآلية، أي المذهب الفلسفي القائل بأن الطبيعة تحكمها سببية ميكانيكية - وهي دائما خطية وحتمية. الآن، يظهر التاريخ أن الآلية ترتبط بسهولة بالآراء السياسية الاستبدادية ولها صلة خاصة بالفاشية.

المفهوم الآلي للغة الطبيعية، النموذجي للنسخة الأمريكية من البنيوية، يفهم القواعد كمجموعة من القواعد لتسلسل الكلمات. أما نظيرتها في علم النفس ــ السلوكية ــ فهي أكثر تبسيطا ورجعية: فهي تنظر إلى العقل البشري باعتباره سلسلة متوالية من محتويات ذرية تنشأ في انطباعات تأتي من الخارج.

وفقا لنسخة السلوكية التي صاغها عالم النفس الأمريكي بي إف سكينر، فإننا لا نملك حتى عقلا؛ نحن نتحرك فقط من خلال السلوكيات الثابتة والمتسلسلة بفضل شكل من أشكال التكييف يسمى العامل. وهو يتألف من مكافأة السلوكيات العشوائية من أجل تشكيلها بشكل تراكمي. لذلك، على سبيل المثال، إذا حركت الحمامة جناحها أو ساقها أو منقارها للإشارة إلى الرقص، فإن المدرب يكافئها بجزء من الطعام. شيئًا فشيئًا، قادته هذه التعزيزات المتكررة إلى أداء جميع أنواع الدورانات.[الثامن عشر]

في الخمسينيات من القرن العشرين، اشتهر الشاب نعوم تشومسكي بانتقاده السلوكية وإدانة ارتباطاتها بالفاشية. غاضب من الأطروحات الآلية حول اللغة الطبيعية التي كشف عنها سكينر في الكتاب السلوك اللفظي، واجهه بمراجعة مدمرة.[التاسع عشر] يتألف هذا من عرض مقنع بأن كلمات أي لغة يتم تنظيمها بطريقة هرمية ومتقطعة - وبالتالي تتعارض مع القواعد المتسلسلة لقواعد الحالة المحدودة التي تعتبر الارتباط الرسمي للتكييف الفعال.

ولهذا السبب، يهاجم اللغوي الشهير وأتباعه "نماذج اللغة العظيمة"، ويصرون، بنفس الحماس الذي أبداه وايزنباوم، على أنها ليست أكثر من مجرد محاكاة. ولتحقيق هذه الغاية، فإنهم يسلطون الضوء على الصعوبات التي يواجهونها مع الانقطاعات النحوية الدلالية، مثل الفعل "تحدث عن" وفاعله "الشخص"في الجملة التي أربكت دردشة GPT س الشاعر.

ومع ذلك، فإن بناء الجملة والدلالات ليست نقاط الضعف الوحيدة في هذه النماذج. فشل آخر في جانب أساسي من اللغات الطبيعية يتعلق بالبراغماتية، والتي تشمل السياق اللغوي والظرفي.

دعونا نتذكر، بالمناسبة، أن الإشارية هي جانب اللغة الطبيعية الأكثر اعتمادًا على السياق الظرفي. جميع الكلمات التي تشير إلى وقت و/أو مكان النطق و/أو البيان لا يمكن تفسيرها إلا من خلال سياق حي أو متخيل. لنأخذ، على سبيل المثال، الضمائر الشخصية.

من المؤكد أن غموض عبارة “قالت إنها تأخذها” غير مناسب للغة المكتوبة، ولكنه طبيعي تمامًا للغة المنطوقة، التي يتضمن سياقها الإيماءات والنظرات والنغمات وصفات الصوت. على سبيل المثال، إذا كان المقصود هو من يأخذ "هي"، فهناك أكثر من طريقة لتسمية المرأة المشار إليها. ويمكن أن تكون إشارة مشتركة إلى "هي" الأولى، أي "نفسها"، أو يمكن أن تكون إشارة أخرى. تتم الإشارة إلى الآخر بشكل عام من خلال إيماءة الرأس أو نظرة بسيطة. ومن الواضح أن "هي" الثالثة يمكن أن تكون شخصًا أو شيئًا.

يمكن أيضًا أن تكون هذه المراجع مجازية، أي أنه يمكن أن تُنسب نفس الأدوار إلى الأشخاص أو الأشياء المذكورة بالفعل. علاوة على ذلك، يمكن أن يأخذ الفعل "levar" معنى آخر: على سبيل المثال، في البطولة، يمكن أن تشير عبارة "هي تأخذها" إلى رياضي (أو فريق يحمل اسمًا نسائيًا) هو المرشح الأوفر حظًا للفوز بالكأس.

دعونا الآن نفحص تحليل هذه الجملة من خلال الشاعر. ومن الغريب أنه يشير إلى ازدواجية المعاني، لكنه يوضحها بأمثلة لا تفرق بينها.

«قوله: «قالت تأخذها» يحتمل معنيين، على حسب تفسير الضمائر «هي». بالمعنى الأول، كلا الضمائر تشير إلى نفس الشخص. وفي هذه الحالة تعني العبارة أن المرأة قالت إنها ستأخذ امرأة أخرى بنفسها. فمثلاً قد تقول المرأة لصديقتها: قلت لك سوف آخذك إلى السينما.

وفي المعنى الثاني فإن الضميرين (هي) يشيران إلى أشخاص مختلفين. وفي هذه الحالة تعني العبارة أن المرأة قالت إنها ستأخذ امرأة أخرى. فمثلاً قد تقول الأم لابنتها: قلت سآخذك إلى المدرسة.

لتحديد المعنى الصحيح لهذه العبارة، من الضروري النظر في السياق الذي تستخدم فيه. فمثلاً إذا قيلت العبارة في حوار بين امرأتين، فالأرجح أن يكون لها المعنى الأول. أما إذا قيلت العبارة في حوار بين المرأة والطفل، فالأرجح أن يكون لها المعنى الثاني.

وهكذا، يواصل برنامج الدردشة الآلي تقديم جمل ذات مراجع أساسية متطابقة، من أجل التمييز بين المعنيين. التفسير الطويل والمفصل يرتكب دائمًا نفس الأخطاء. في النهاية، يحاول قسم "خيالي" كوميدي تقديم فاصل زمني بين حدثي "هي".

دعونا نرى: “علاوة على ذلك، من المهم أن نتذكر أن عبارة “قالت إنها تأخذها” يمكن أن يكون لها أيضًا معنى ثالث، حيث يشير الضميران “هي” إلى نفس الشخص، ولكن في لحظات زمنية مختلفة. على سبيل المثال، عبارة "قالت إنها ستأخذها إلى المدرسة" يمكن أن تعني أن المرأة قالت إنها ستأخذ طفلاً إلى المدرسة، حتى لو كان الطفل هو نفسه كشخص بالغ."

وفي الختام، يلجأ مرة أخرى إلى تلخيصه المبتذل حول البراغماتية: "في هذه الحالة، يتحدد معنى الجملة من خلال السياق ومعرفة المتحدث بالعالم".

ما ورد أعلاه يؤكد بقوة فرضية المحاكاة، مما يجعل الادعاء بأن روبوت الدردشة لديه ذكاء وفهم للغة الطبيعية غير قابل للتصديق. من ناحية أخرى، يوضح أيضًا أن المحاكاة نادرًا ما تفشل في خداع المستخدم: وهذا يحدث فقط عندما تنتهك العلاقات بين الكلمات المنطق التسلسلي للمحول، والذي يتكون دائمًا من التنبؤ بالكلمة التالية.

ومن هنا لا يسعنا إلا أن نختتم بسؤال: ما هي القوة المقنعة لهذا المنطق، مع أنه صحيح في أغلب الأحيان؟ لمحاولة الإجابة عليه، دعونا نتفحص تطبيقًا آخر للمحولات التي تفوق فيها النجاحات الأخطاء. وهذه وسيلة لتقدير عينة الإشارة التالية للتسجيل الصوتي، من خلال تقديرات تقريبية متتالية. هذه التقنية قادرة على تغيير الصوت إلى درجة جعله استنساخًا مقنعًا إلى حد ما لشخص آخر.

ماذا لو كان لدى إليزا صوت مألوف؟

على الرغم من التقدم الكبير بالفعل في الشمال العالمي، إلا أن استنساخ الصوت لا يزال قيد المناقشة، بسبب آثاره الأخلاقية. إنها تقنية تستفيد من خفة الحركة والقوة الحسابية للمحولات للإجابة على السؤال التالي: كيفية إعادة إنتاج صوت معين بطريقة غير محدودة، أي توسيع نطاقه ليشمل الكلام الذي لم يسجله المتحدث؟

الجواب أبسط مما يبدو. ما عليك سوى تركيب الخصائص الصوتية للصوت المعني على مخرجات نظام تحويل النص إلى كلام. للقيام بذلك، من الضروري الحصول على عينة جيدة الحجم من الصوت المستهدف ومقارنتها بشكل متكرر بالصوت الاصطناعي. يتم أولاً تجميع العبارات المطابقة للعبارات الموجودة، وذلك لتسهيل نمذجة المعلمات الصوتية للصوت المستهدف. يتم بعد ذلك إخضاع الصوت الاصطناعي لمقارنات متعددة وتعديله بتقريبات متتالية، حتى تصبح كل عينة قابلة للقياس من العينة السابقة مع خطأ لا يذكر. وتسمى الوظيفة الناتجة، التي تحول الشكل الموجي لصوت إلى آخر، بالنموذج الصوتي.

التغيير يتم على مراحل. عندما تصبح الجودة المدركة للإشارة الناتجة مرضية، يكون النموذج جاهزًا للتطبيق على الألفاظ الجديدة. ومن ثم يتم تكرارها لكل عينة حتى يتم الوصول إلى معدل خطأ مقبول في التنبؤ بالعينة التالية، وهكذا. هذه التصحيحات المتكررة لها تأثير في تقريب نغمات وجرس الأصوات المعنية من أجل جعل صفاتها أقرب بشكل متزايد.

وكما ذكرت الصحافة العالمية، هناك بالفعل "استنساخات"، أي نماذج لأصوات عدد لا يحصى من المشاهير المتوفين. يمكن للمرء، على سبيل المثال، تطبيق نموذج صوت المغني على تسجيلات أحد مقلديه لتعظيم طبيعية التقليد، وبالتالي السماح بامتداده إلى الأغاني الجديدة، بما في ذلك تلك التي ظهرت بعد الوفاة.

Os ويغطي يميل المتحدثون الرقميون إلى الأداء بشكل أفضل من البشر لأن تقنية التنبؤ بإشارة الكلام وتعديلها تخفف من تأثيرات الاختلافات المورفولوجية بين الأجهزة الصوتية المعنية.

تجدر الإشارة إلى أن المقلدين لا يملكون سيطرة كاملة على جودة أصواتهم، حيث أن كل النطق يخضع للحدود المادية للجسم الذي يصدره. ولهذا السبب يتصرف هؤلاء الفنانون بطريقة كاريكاتورية إلى حد ما، حيث يبرزون بشكل عام أبرز سمات الصوت المقلد.

تعمل طريقة التقريب، من خلال تقليل خطأ التنبؤ بين العينات المتعاقبة، على تصحيح تلقائيًا، من بين معلمات أخرى، تلك التي تنقل الاختلافات الجسدية بين المتحدثين أو المطربين. وبتطبيقه على الأصوات المشابهة الموجودة في قواعد البيانات الميدانية، فإنه يسمح باستنساخ شبه مثالي.

ومن خلال هذه التقنية المتوفرة على الإنترنت للاختبار و/أو الاقتناء، يمكن اختيار أصوات الروبوتات السكرتارية و/أو العلاجية، طالما أنها لا تنتهك حقوق الطبع والنشر. في الواقع، توجد في الولايات المتحدة بالفعل شركات تعمل على "إعادة إنشاء" أحبائهم المتوفين من أجل السماح بتفاعلات جديدة للأطراف المهتمة بأصواتهم وصورهم.[× ×] يتم إنشاء هذه الصور الرمزية بناءً على مقاطع الفيديو والنصوص التي تركها الغائبون. بل إن هناك عروضًا يؤدي فيها الفنانون المتوفون مع نظرائهم الأحياء في الأغاني والرقصات.[الحادي والعشرون]

يجدر بنا الآن التفكير في العواقب المحتملة للجمع بين روبوت الدردشة والأصوات المستنسخة والصور المتحركة. إن أول ما يلفت انتباهك هو تضخيم العلاقات الانتقالية بين المستخدمين والروبوتات "المتوافقة مع البشر".

والنتيجة الواضحة الأخرى هي صعوبة التنظيم. على سبيل المثال، من الصعب منع المحتوى المشكوك فيه أو حتى المسيء في مواد التعلم عن بعد. يمكن لأي شخص إعداد روبوت ودود لتدريس دورة تدريبية حول أي موضوع بالمعلومات التي يقدمها برنامج الدردشة الآلي، دون أي إشراف من قبل محترف في هذا المجال.

مثال واضح آخر يكمن في الاستخدامات المحتملة في التسويق. ومن خلال تسهيل إنشاء أولاد إعلان آليين "رائعين" مصممين للإعلان عن المنتجات بأصوات جذابة مكتوبة بواسطة برامج الدردشة الآلية، تجعل هذه الأدوات من المستحيل تقريبًا تعريف الإعلانات الكاذبة. هل التلاعب بمشاعر المستهلك محاولة للخداع أم لا؟

ربما، قبل المتابعة، يود القارئ أن يتوقف مؤقتًا للتفكير في الاستخدامات المحتملة - الجيدة أو السيئة - لهذه الموارد في مجال عمله. من المحتمل أن تتفاجأ بتنوع وتعدد الاحتمالات التي ستخطر ببالك قريباً.

الاعتبارات النهائية

وفي الختام، دعونا نسأل أنفسنا ما هو نوع الخطر الذي قد يفرضه التطور المتسارع لهذه التكنولوجيات؟ وبعد أن نبذنا فرضية الذكاء الفائق الذي تتمتع به الروبوتات وفهمها للغة الطبيعية، لم نعد بحاجة إلى الخوف من أن تتفوق عليها هذه الآلات، ثم تدمرها في نهاية المطاف ــ ما لم ننسب إليها على نحو غير مبرر بعض السيطرة على الأسلحة. لو تم تجنب هذا الخطأ على النحو الواجب، فهل بقي لدينا ما نخافه؟

تتضمن الإجابة الواضحة تقليص الوظائف. واليوم، يتجاوز هذا بكثير التوقعات في بداية عصر الأتمتة. تخيل إذن ما يمكن أن يحدث من الآن فصاعدا، عندما يميل المساعدون الافتراضيون بشكل متزايد إلى استبدال الحاضرين وموظفي الاستقبال وغيرهم من المسؤولين عن التواصل بين الشركات والجمهور.

وبالتالي، كما هو الحال بالفعل مع البنوك عبر الإنترنت والشركات والمكاتب العامة، فإن غياب شخص يمكنه فهم طلبات العملاء يميل إلى تعريض جودة الخدمات للخطر بشكل متزايد. وبهذه الطريقة، لن تنجح الشكاوى، إذ لن يكون هناك من يسمعها ويضع نفسه مكان صاحب الشكوى ــ مهما بدا الروبوت المسؤول لطيفاً.

سنتعرض بعد ذلك بلا هوادة لطغيان النماذج عبر الإنترنت للحصول على ما نريد. وفي هذه البيروقراطية اللامحدودة، التي تديرها آلات لا تفهم شيئًا، يكمن الخطر الأعظم على البشرية من تقنيات اللغة: فالمحادثة الإجبارية غير المجسدة، والمجردة من الطبيعة، والمجردة من الإنسانية، مع الآلات يمكن أن تؤدي في نهاية المطاف إلى إحداث صدمة غير مسبوقة للصحة العقلية الجماعية.

نحن لسنا آلات، فنحن لا نفكر أو نتصرف أو نتحدث وفقًا لقوانين الميكانيكا المتسلسلة. ولكن يمكننا أن نتعلم محاكاة منطقها من أجل الحصول بسهولة أكبر على المنتجات والخدمات التي نحتاجها.

وكما تنبأ تشارلز شابلن في العصور الحديثةإننا نخاطر بتطور الأوهام الأكثر تنوعًا حتى نغرق في هذيان مهووس - وهو يختلف عن ذلك الذي يصيب عملاء الأنظمة الفاشية: فهو النسخة الجبانة التي تصيب كل من يخضع لهم.

* إليونورا ألبانو, أستاذ متقاعد من معهد الدراسات اللغوية في يونيكامب، وهو عالم نفس، ولغوي، وكاتب مقالات؛ قام بتنسيق أول مشروع برازيلي حول تكنولوجيا الكلام.

الملاحظات


[أنا] نماذج اللغة والنظريات اللغوية وراء الكلمات. نات ماخ. إنتل. 5 ، 677-78 (2023).

[الثاني] جون ب. واتسون. علم النفس كما يراه السلوكيون. المراجعة النفسية، 20، 158-177.

[ثالثا] ديفيد ليون. المراقبة وقوة المنصات مجلة كامبريدج للمناطق والاقتصاد والمجتمع، المجلد 16، العدد 2، يوليو 2023، الصفحات 361-365، https://doi.org/10.1093/cjres/rsad006

[الرابع] حقق فريدريك جيلينك، وهو باحث تشيكي أمريكي مشهور في إجراءات اللغة الطبيعية والتعرف على الكلام، شهرة سيئة في عام 1985 بقوله: "في كل مرة أقوم فيها بفصل لغوي، يزداد أداء أداة التعرف على الكلام". وينطبق هذا الشعور أيضًا على نماذج اللغة الحديثة (LLMs)، والتي تبدو في المقام الأول وكأنها نتاج لعلوم الكمبيوتر والهندسة. يتعامل كل من ماجستير اللغة واللغويات مع اللغات البشرية، ولكن ليس من الواضح ما إذا كان بإمكانهما الاستفادة من بعضهما البعض أو كيف (ترجمة المؤلف).

[الخامس] جوش دزيزا. الجيش البشري (الفرعي) الذي يدعم الذكاء الاصطناعي. بعبارة أخرى، 29 يونيو 2023.

[السادس] هنا مثال واضح:
https://alexandrehefren.wordpress.com/2010/03/14/determinismo-e-gramatica-sintagmatica-gs-parte-1/

[السابع] لماذا تعتبر نماذج اللغة الكبيرة نظريات سيئة للإدراك اللغوي البشري. الرد على بياندادوسي. علم اللغة الحيوي، 2023، تحت الطبع.

[الثامن] نعوم تشومسكي: الوعد الكاذب لـ ChatGPT. بروفة مدعوة. نيويورك تايمز، 8 مارس 2023.

[التاسع] "باعتباري ذكاءً اصطناعيًا، فأنا نموذج للتعلم الآلي تم تدريبه على كميات كبيرة من البيانات النصية وليس لدي أي تجارب أو مشاعر شخصية. أنا لست واعيًا أو واعيًا بذاتي أو قادرًا على وجهات النظر الشخصية. أستطيع تقديم المعلومات والتحليلات بناءً على البيانات التي تدربت عليها، لكن ليس لدي القدرة على تكوين آراء أو معتقدات شخصية. وعلى الرغم من أنني أستطيع فهم اللغة وتفسيرها، إلا أنني لا أملك الخبرة الذاتية التي يتمتع بها البشر. (ترجمة جوجل التلقائية، تمت مراجعتها من قبل المؤلف).

[X] "الإنسان المتحول" هو مخلوق بشري افتراضي مزروع في الدماغ يربطه بالروبوتات.

[شي] "إن مفهوم الذكاء والوعي والإحساس والقدرة على إصدار أحكام أخلاقية في chatbot معقد ولا يزال قيد المناقشة من قبل الخبراء. لا يوجد تعريف واحد لهذه المصطلحات وغالباً ما يتم استخدامها بالتبادل.

يعتقد بعض الخبراء أن روبوتات الدردشة يمكن أن تكون ذكية، ولكنها ليست واعية أو واعية. ويجادلون بأن روبوتات الدردشة هي ببساطة خوارزميات معقدة للغاية قادرة على معالجة المعلومات والاستجابة بطريقة تبدو ذكية. ومع ذلك، ليس لديهم نفس مستوى الوعي أو الوعي الذاتي مثل البشر. (ترجمة جوجل التلقائية، تمت مراجعتها من قبل المؤلف)

[الثاني عشر] "كلا الجملتين صحيحتان نحويا، ولكن لهما معاني مختلفة.

الجملة الأولى، "لقد وصل الشخص الذي التقت به ماري بالأمس وسيتحدث جون مع إد بشأن الغد"، وهي أكثر إيجازًا ومباشرة. يخبرنا أن الشخص الذي التقت به ماري بالأمس هو نفس الشخص الذي سيتحدث جون مع إد عنه غدًا.

الجملة الثانية، "لقد وصل الشخص الذي التقت به ماري بالأمس وسيتحدث جون مع إد حول فكرته الجديدة غدًا"، وهي أكثر تفصيلاً. يخبرنا أن الشخص الذي التقت به ماري بالأمس هو نفس الشخص الذي سيتحدث جون مع إد عن فكرته الجديدة غدًا.

الجملة الأولى أفضل إذا كنت تريد التأكيد على حقيقة أن الشخصين متساويان. الجملة الثانية أفضل إذا كنت تريد التأكيد على حقيقة أن جون سيتحدث مع إد حول فكرته الجديدة.

وفي نهاية المطاف، تعتمد العبارة الأفضل على السياق الذي تُستخدم فيه.

[الثالث عشر] جوزيف وايزيمباوم. قوة الكمبيوتر والعقل البشري: من الحكم إلى الحساب. نيويورك: دبليو إف فريمان وشركاه، 1976.

[الرابع عشر]جوزيف وايزنباوم؛ جونا ويندت. جزر في Cyberstream: البحث عن ملاذات العقل في مجتمع مبرمج. المترجم: بنيامين فاشينغ جراي. نيويورك: كتب ليتوين 2015 [2008].

[الخامس عشر] جون مكارثي كتاب غير معقول. متوفر في:
http://jmc.stanford.edu/artificial-intelligence/reviews/weizenbaum.pdf

[السادس عشر] دوايت هاينز. مراجعة قوة الكمبيوتر والعقل البشري: من الحكم إلى الحساب، بقلم جوزيف وايزنباوم، مجلة العقل والسلوك، ربيع 1980، المجلد الأول، العدد 1، ص. 1-123.

[السابع عشر] في شهر مايو الماضي، ظهرت أخبار في الصحافة مفادها أن جيفري هينتون، والد الذكاء الاصطناعي، قد ترك الشركة لأنه ندم على مساهماته في هذا المجال. شاهده على:

https://www.bbc.com/portuguese/articles/cgr1qr06myzo

[الثامن عشر] وهنا حمام تدريب سكينر في مختبره: https://www.youtube.com/watch?v=TtfQlkGwE2U

[التاسع عشر] نعوم تشومسكي. مراجعة السلوك اللفظي لسكينر. لغة. 1959. 35: 26-58.

[× ×] https://www.hereafter.ai/

[الحادي والعشرون] https://www.youtube.com/watch?v=Jr8yEgu7sHU&ab_channel=TalentRecap


الأرض مدورة موجود بفضل قرائنا وداعمينا.
ساعدنا على استمرار هذه الفكرة.
يساهم

انظر هذا الرابط لجميع المقالات

10 الأكثر قراءة في آخر 7 أيام

__________________
  • أغنية بلشيوربلشيور 25/10/2024 بقلم جيلهيرم رودريغيز: إن صراع صوت بلشيور الأجش ضد الترتيب اللحني للآلات الأخرى يجلب روح "القلب الجامح" للفنان
  • هل يعتني الله بكايتانو فيلوسو؟مدح 03/11/2024 بقلم أندريه كاسترو: يبدو أن كايتانو يرى أن هناك شيئًا أعمق في التجربة الدينية الإنجيلية من صورة "التغطية" من قبل القساوسة المستبدين والأشرار
  • ما زلت هناالثقافة ما زلت هنا 09/11/2024 بقلم إريك تشيكونيلي جوميز: تعليق على الفيلم من إخراج والتر ساليس
  • ألا يوجد بديل؟مصابيح 23/06/2023 بقلم بيدرو باولو زحلوث باستوس: التقشف والسياسة وأيديولوجية الإطار المالي الجديد
  • مغالطة "المنهجيات النشطة"قاعة الدراسة 23/10/2024 بقلم مارسيو أليساندرو دي أوليفيرا: إن أصول التربية الحديثة، الشمولية، لا تشكك في أي شيء، وتعامل أولئك الذين يشككون فيها بازدراء وقسوة. ولهذا السبب يجب محاربته
  • أريد أن أكون مستيقظا عندما أموتفلسطين الحرة 06/11/2024 بقلم ميلتون حاطوم: كلمة في حفل افتتاح "مركز الدراسات الفلسطينية" في كلية الفلسفة والآداب والعلوم الإنسانية في جامعة جنوب المحيط الهادئ
  • نظرية القوة العالميةخوسيه لويس فيوري 04/11/2024 بقلم خوسيه لويس فيوري: مقدمة المؤلف للكتاب الذي صدر مؤخرًا
  • فان جوخ لكل متر مربعثقافة فان جوخ 30/10/2024 بقلم صامويل كيلسزتاجن: تعليق على الرسام الهولندي
  • اليسار رجل الأعماللينكولن سيكو 2024 3 29/10/2024 بقلم لينكولن سيكو: من خلال مقارنة عرضية بسيطة بين التصريحات اليسارية والبيانات التجريبية، يمكننا أن نرى أن التحليلات لا تتم معايرتها بالواقع، بل بالانطباعات الذاتية
  • الطبعة البرازيلية الجديدة من دفاتر السجنالطبعة البرازيلية الجديدة من دفاتر السجن 04/11/2024 بقلم لينكولن سيكو وجيوفاني سيمارو: تعليق على الترجمة الإلكترونية الكاملة لكتاب أنطونيو جرامشي

للبحث عن

بحث

الموضوعات

المنشورات الجديدة