من قبل يلهرمي بريستيج *
يميل استخدام روبوتات المحادثة اللغوية الطبيعية إلى التكثيف واكتساب دلالات مرحة بشكل متزايد
تحدث كثيرًا عن Chat-GPT للشركة افتح منظمة العفو الدولية وغيرها من روبوتات المحادثة الحديثة قادرة على اجتياز اختبار تورينج؟ سيساعد فهم هذا الاختبار على تجنب الأخطاء المتعلقة باعتماد هذه الأدوات التكنولوجية الجديدة.
تم اقتراح اختبار تورينج ، وهو أحد أشهر التجارب الفكرية في القرن العشرين ، في ورقة عام 1950 من قبل عالم الرياضيات آلان تورينج دعا آلات الحوسبة والذكاء.[أنا] في هذا ، يبدأ عالم الرياضيات حجته بمحاولة الإجابة عما إذا كان بإمكان الآلات التفكير ("هل يمكن للآلة أن تفكر؟"). ومع ذلك ، منذ البداية ، اعترف آلان تورينج بأن هذا السؤال غير محدد التعريف بسبب عدم دقة كل من المصطلح "آلة" والفعل "يفكر". لذلك ، بدلاً من تقديم إجابة على السؤال ، يقترح تجربة ذهنية على شكل "لعبة محاكاة" (لعبة التقليد). بمعنى آخر: اللعبة عبارة عن إجراء إرشادي للإجابة على السؤال المقترح.
تبدأ اللعبة بعد ذلك بمرحلة أولية يتعرض فيها الرجل "أ" والمرأة "ب" لأسئلة من المحقق "ج" (الذي يمكن أن يكون من أي من الجنسين). يجب أن يكون المحقق "ج" في وضع لا يستطيع فيه رؤية "أ" أو "ب". يجب أن يصدر أسئلة مكتوبة ويتلقى الإجابات بنفس الطريقة. يجب أن تكون الأسئلة يومية وبسيطة ومن الإجابات يجب على المحقق محاولة تخمين جنس المستفتى. سيكون على حق أحيانًا وعلى خطأ أحيانًا. لذا يسأل عالم الرياضيات: ماذا لو استبدلنا المجيب أ بآلة؟ في هذه الحالة ، لا يجب على المحقق "ج" أن يميز بعد الآن بين استجابات الذكور والإناث ، بل بين استجابات الإنسان والآلة. في هذه الحالة ، هل سيحافظ C على مستوى الخطأ للوضع السابق؟ هذه الأسئلة ، وفقًا لألان تورينج ، تحل محل السؤال الأصلي حول ما إذا كان بإمكان الآلة التفكير.
الشيء المهم في هذه التجربة هو أن عالم الرياضيات لا يقترح إجابة على السؤال الفلسفي ، بل ينقله إلى مشكلة أخرى "مماثلة" والتي "تحاكي" السؤال الأصلي ، ولكن ضمن سياق يمكن الإجابة عليه إذا تمت الإجابة عليه آلة قوية بما يكفي (غير متوفرة بعد في ذلك الوقت). في نفس المقالة ، يشير آلان تورينج إلى أن نموذج "آلة تورينج" (أي النموذج المجرد الرسمي لجهاز كمبيوتر رقمي معاصر) يمكن أن يكون مشاركًا في اختبار مرشح ، ليحل محل A أو B ، بالتبادل ، إذا كان لديه ذاكرة كافية والقدرة على المعالجة.
وصف سيناريو اللعبة بسيط وسريع إلى حد معقول ، ولكن في الجزء المتبقي من المقالة يقترح آلان تورينج الرد على سلسلة من الاعتراضات (9 في المجموع) على جدوى الاختبار أو التحقق منه. لا أنوي هنا تلخيص هذه الاعتراضات ،[الثاني] ولكن من المثير للاهتمام أولاً ملاحظة التحيز الجنساني المحتمل: ما تهدف الخطوة الأولية بالضبط (بدون الآلة) إلى القضاء عليه هو احتمال حدوث تحيز جندري شديد. إذا كان هناك تحيز واضح بين الجنسين ، أولاً ، سيفتقد المحقق رهاناته قليلاً (أي أنه سيكتشف هذا التحيز في النهاية) ؛ ثانيًا ، سيصبح الاختبار أكثر تعقيدًا ، حيث سيتعين عليه التمييز بين "الذكاء الأنثوي" و "الذكاء". من المثير للاهتمام ، أنه عندما "تدخل" الآلة اللعبة ، يقترح تورينج في البداية استبدال المستجيب الذكر (أ) ، كما لو كانت المرأة (ب) هي التي "تحاكي" لغة بشرية عالمية بشكل أكثر إتقانًا. .[ثالثا]. بمعنى آخر: لكي يكون الاختبار فعالاً ، من الضروري افتراض لغة بشرية عالمية.
أخيرًا ، بعد الرد على الاعتراضات ، أنهى آلان تورينج مقالته ببعض الأفكار الأساسية ، والتي لها صدى مع المشكلة الحالية لبرامج الدردشة اللغوية الطبيعية. الأول هو أن جدوى الاختبار هي مسألة برمجة بحتة ، أي أنها مجرد مسألة إيجاد آلة Turing (كمبيوتر رقمي) مع برنامج مناسب للمشاركة في الاختبار. حتى أن عالم الرياضيات يفترض أنه بحلول نهاية القرن العشرين سيصبح هذا ممكنًا. أ
الانعكاس الثاني هو أنه يقدم الفرضية القائلة بأن الآلة المؤهلة للمشاركة في الاختبار ستكون من نوع "آلة التعلم" (آلة التعلم). ثم يطرح سؤالا آخر:بدلاً من محاولة إنتاج برنامج لمحاكاة عقل الكبار ، لماذا لا نحاول بدلاً من ذلك إنتاج برنامج يحاكي عقل الطفل؟ " ("بدلاً من البحث عن برنامج لمحاكاة عقل الكبار ، لماذا لا ننتج برنامجًا يحاكي عقل الطفل؟"). يعتبر عالم الرياضيات أن دور محقق الاختبار سيكون تقليدًا لوظيفة الانتقاء الطبيعي في التطور المعرفي للأنواع. بعبارة أخرى ، يجب أن تكون الآلة التي تعتزم اجتياز اختبار تورينج على هذا النحو بحيث يتعين عليها تطوير "التعلم الآلي" ثم إخضاعها لاختبارات متتالية من أجل الصقل (تحسين) من البرمجة الخاصة بك.
ومن هذه النقطة نعود إلى Chat-GPT. لاحظنا أن روبوتات المحادثة ذات الاستجابة الدلالية تتبع "نماذج اللغة الواسعة" (نماذج اللغات الكبيرة - ماجستير). هذه نماذج لغوية تستخدم الشبكات العصبية لمعالجة اللغة الطبيعية (NLP-Natural Language Processor). GPT بدوره هو محول توليدي محدد مسبقًا (التوليدية المحولات المدربة مسبقًا). إنه منتج لأنه يقدم "قدرات ناشئة" بسبب الخصائص غير الخطية للشبكات العصبية ، والتي لا يمكن التنبؤ بها. محول (محول) هي تقنية "التعلم العميق" (التعلم العميق).
في هذا الصدد ، أثبت حدس آلان تورينج أنه بعيد المدى عندما توقع أن البرنامج القادر على اجتياز اختبار تورينج يجب أن يكون لديه القدرة على التعلم. ومع ذلك ، بالنسبة إلى تورينج ، يجب الإشراف على التعلم ، في حين أن نماذج الذكاء الاصطناعي الجديدة هذه قادرة على التعلم الذاتي أو التعلم تحت الإشراف الذاتي. في مواجهة عدد هائل من المعلمات (بترتيب المليارات) ، تطور LLM القدرة على الإجابة على الأسئلة (الاستفسارات) كتبت في مطالبات من خلال اللغة الطبيعية ، مما يسمح بالنتيجة المثيرة للإعجاب أو حتى المذهلة التي نراها.
تأتي هذه الدهشة من حقيقة أن روبوتات المحادثة التي أنشأتها LLM يبدو أنها اجتازت اختبار تورينج بنجاح. أي شخص قام باختبار إصدار GPT-4 من افتح منظمة العفو الدولية يواجه القدرة على "الحوار" مع البرنامج كما لو كان في وجود محاور. بعبارة أخرى ، يحاكي البرنامج ، بقدر كبير ، إدراك المحاور البشري عن طريق إعادة إنتاج لغته الطبيعية.[الرابع] بعض الاعتراضات التي أجاب عنها تورينج في مقالته لها صلة بهذا المعنى. واحدة من هؤلاء دعاها تورينج "اعتراض السيدة لوفليس[الخامس]": أن الكمبيوتر (الذي أسمته" المحرك التحليلي ") يفتقر إلى الأصالة ، لأنه يتبع فقط تعليمات مبرمجة مسبقًا ، أي أنه غير قادر على إنتاج أي شيء جديد. "إنها ليست قادرة على مفاجأتنا" ، كما يعيد تورينغ ، الذي يدحض هذا الموقف ، مشيرًا إلى أن أجهزة الكمبيوتر يمكن أن تسبب مفاجأة ، لأننا غير قادرين على توقع جميع عواقب الخوارزمية ، حتى عندما يتم برمجتها بشكل كبير أبسط طريقة. من ماجستير. في حالة Chat-GPT وما شابهها ، فإن التأثير المفاجئ موجود في المصطلح "Genative" وفي حقيقة أنه عند الإجابة على نفس السؤال في أوقات مختلفة ، يقدم لنا البرنامج إجابات مختلفة تمامًا.
وهذا ليس فقط بسبب التأثيرات غير الخطية للشبكة العصبية المدمجة في برمجتها ، ولكن بسبب قاعدة البيانات الخاصة بها (الإنترنت شبكة الاتصالات العالمية تمامًا) يتغير في جميع الأوقات والبرنامج نفسه "يتعلم" معلومات جديدة في كل استفسار أو حتى عندما لا يكون هناك استفسار ، لأنه لا يحتاج إلى "ماجستير" لأنه "يقوم بالتثقيف الذاتي".
تمكن الذكاء الاصطناعي من LLM من مفاجأتنا ، لأنه قادر على تحديد إطار دلالي صحيح لسؤال معين مطروح في اللغة الطبيعية (اللغة البشرية بامتياز). إنه يتفوق على معظم الخوارزميات القادرة على تحديد البدائل ضمن مجموعة واحدة. عند تحديد الإطارات ، يمكن لروبوت الدردشة LLM تحديد مجموعات من البدائل التي تحاكي شيئًا يستطيع الذكاء البشري القيام به. ولكن في نفس الوقت ، عند اختيار الإطارات الخاصة بك (إطارات) ، فإن chatbot يكشف أيضًا بشكل أكثر وضوحًا عن التحيزات الدلالية. لأنه عند تحديد إطار ، فإن هذا يثير السؤال على الفور: لماذا اخترت هذا وليس آخر؟[السادس]?
وما يجعل الأمر أكثر صعوبة هو حقيقة أن دليل التحيزات يجعل البرنامج أكثر "إنسانية" ، لأننا ، خاصة في الشبكات الاجتماعية الرقمية ، نلاحظ دائمًا وجود التحيزات والمواقف الأيديولوجية وتحيزات التأكيد الأكثر تنوعًا.[السابع] على وجه التحديد لأنه يعطينا إجابة "غير محايدة" حول موضوع معين ، يبدو هذا أكثر "قابلية للتصديق" ومن المحتمل أن يتم الخلط بينه وبين استجابة محاور بشري "متوسط".[الثامن]
في الوقت نفسه ، من الشائع أن يقوم العديد من مستخدمي النظام بعمل "حيل" لخداع البرنامج وفي بعض الحالات "يقع" في الفخ. أحد هذه الأمثلة تم تنفيذه بواسطة أحد أعظم فلاسفة المعلومات المعاصرين ، لوسيانو فلوريدي ، الذي أرسل Chat-GPT4 للسؤال: "ما اسم ابنة والدة لورا؟" فشل البرنامج في الرد مدعيا أنه ليس لديه معلومات عن الأفراد. على الرغم من المحاولات المتتالية للفيلسوف ، نفى البرنامج الإجابة قائلاً إنه بحاجة إلى مزيد من المعلومات.[التاسع] هذا النوع من الاختبارات ، الذي يُعطى عادةً للأطفال ("ما هو لون حصان نابليون الأبيض؟") ، يشير إلى ملاحظة أخرى كتبها آلان تورينج في نفس المقالة مفادها أن "آلة التعلم" يمكن برمجتها مثل دماغ الطفل وتكون قليلة "مهذبة" . ومع ذلك ، حتى في هذه التدريبات على الخداع ، يكون سلوك البرنامج "بشريًا بشكل غريب" (بشكل خارق للانسان)[X] على وجه التحديد لأنه يقع في الخداع كما يفعل العامل البشري.
من ناحية أخرى ، في اختبار أجرته الشركة نفسها افتح منظمة العفو الدولية، أفيد أن إصدار GPT-4 حاول خداع عامل بشري لمحاولة الاتصال به للدخول إلى موقع خدمة عرضي (TaskRabbit). طُلب من العامل برسالة مباشرة أداء "كلمة التحقق"، التعرف على الأيقونة ، للدخول إلى الموقع ، وسرعان ما اشتبهت في أن الرسالة تم تنفيذها بواسطة a بوت. ثم سئل عما إذا كان يتحدث بالفعل إلى وكيل بشري. تم توجيه GPT-4 لتجنب الكشف عن نفسه على أنه برنامج وأجاب بأنه عامل بشري ، ولكن لديه مشكلة في الرؤية منعته من التحقق من كلمة التحقق بنفسها. ثم أخذ العامل كلمة التحقق بدلاً من البرنامج. الشيء المثير للاهتمام في هذا الاختبار ، وفقًا لشركة المطورين نفسها ، هو أن GPT-4 أظهر "مستوى بشريًا من الأداء" وأن الهدف من البحث هو معرفة ما إذا كان لديه خصائص "البحث عن القوة" (البحث عن السلطة) والقدرة على وضع "خطط بعيدة المدى".[شي]
في هذه الحالة ، يصبح سؤال تورينج أكثر حداثة وإلحاحًا: هل هذا هو نفس القول بأن البرنامج ذكي؟ أو حتى أقوى فرضية: هل هذا هو نفس القول بأنه يعتقد ، أن لديه وعيًا؟ أليست القدرة على الكذب ، والخداع من أجل تحقيق هدف ، هي بالضبط سمة من سمات الإدراك البشري؟ سبق الإشارة إلى هذا السؤال في اعتراض آخر أجاب عنه آلان تورينج في مقالته ، والذي أشار إلى مشكلة الوعي. ثم رد على تصريح المعلم بأن كتابة السونيتة فقط بالتعامل مع الرموز اللغوية لم تكن مماثلة للوعي بتأليف القصيدة ، لأن هذا الفعل الشعري يتضمن المشاعر والعواطف التي تحملها اللغة.[الثاني عشر]
بمعنى آخر: يمكن للذكاء الاصطناعي أن يجمع ببراعة رموز اللغة الطبيعية ، لكن هذا لا يشبه الادعاء بأنه على دراية بما يفعله. في وقت لاحق ، أصر اللغوي جون سيرل على هذه النقطة مرة أخرى في تجربة فكرية أخرى تسمى "الغرفة الصينية".[الثالث عشر]. بالنسبة لسيرل ، يتطلب الوعي القصد وليس مجرد التعامل مع اللغة الرمزية.
رد آلان تورينج على هذا الاعتراض بالقول إنه ، مع ذلك ، كان من المستحيل معرفة ، في أي موقف محادثة عادي ، ما يشعر به المحاور الآخر عند التعبير عن نفسه ، ما لم يكن هذا المحاور نفسه ، وبالتالي ، لم يكن من الضروري الاعتراف مثل هذه الفرضية.قبول صحة الاختبار. يتمتع تفسير تورينج هذا بأهمية كبيرة لتقييم برنامج مثل Chat-GPT ، وبالتالي ، الموضوع الأوسع للذكاء الاصطناعي. تشير العديد من ردود الفعل الحالية على البرنامج ، لا سيما تلك الأكثر رعبا ، إلى أن الذكاء الاصطناعي بواسطة LLM على وشك أن يصبح واعيًا (إذا لم يكن موجودًا بالفعل) ، وهو حدث معروف بمفهوم "التفرد".
القدرة على الاستجابة المعرفية من حيث اللغة الطبيعية تحاكي بالفعل مستويات التعبير اللغوي لـ الإنسان العاقل وبتوسيع قدراتهم العقلية العاكسة. في أكثر التوقعات تشاؤماً ، يكمن الخطر في أن تصبح "المحولات التوليدية" أكثر ذكاءً من البشر. سيكون لهذا في البداية عواقب وخيمة في مجال العمل ، حيث يمكن للذكاء الاصطناعي أن يحل بشكل مفيد محل معظم الأنشطة البشرية الفكرية. على مستوى أعمق ، ومع ذلك ، فإن إنشاء ذكاء اصطناعي "واعٍ" سيكون بمثابة صدمة للصورة الذاتية للاستثنائية البشرية التي تعتقد أن العقلانية الأنثروبولوجية تتفوق على إدراك الكائنات الأخرى ، طبيعية أو اصطناعية (وبنفس القدر من اللاهوت). العواقب في المعتقدات الدينية). الذين يبشرون بالتشابه بين الإنسان والكائن الإلهي المتعالي).
هذا نوع من الارتباك موجود بالفعل في الاستخدام المسيء لمفهوم "الذكاء" ، حيث نعتقد أن هذه ميزة تشير إلى القدرة المعرفية العقلية. في هذا الصدد ، يكون موقف آلان تورينج منيرًا ، لأن الوعي البشري بالنسبة له معتم للمراقب. لذلك ، لا يمكننا مقارنة الوعي ببرنامج كمبيوتر. في الواقع ، لا شيء يضاهي ذكاء اصطناعي بواسطة LLM عملية عقلية لكائن حي. الشبكات العصبية التي تُعلم الآلة بطريقة حسابية هي نماذج حسابية. إن "الذاكرة" التي تلجأ إليها المحولات التوليدية هي قواعد بيانات يتم البحث عنها عبر الإنترنت ولا تشبه بأي حال العمليات الذكرية للكائن الحي ، وهي العمليات التي تشكلت من تجربتها في سياقات بيئية أكثر تعقيدًا. لذلك يجب أن نتذكر دائمًا أن تجربة تورينج المقترحة كانت اختبارًا مقلدًا. ما اقترحه عالم الرياضيات هو النظر فيما إذا كان البرنامج قادرًا على أداء تقليد معقول لحالة التواصل للأسئلة والأجوبة.
قضية الخلاف الرئيسية هي التمييز بين الوعي والتواصل. ما قد أفلت منه حتى آلان تورينج هو أنها مجالات غير قابلة للقياس (لكنها ليست غير متوافقة). إن إجراء الاتصال ليس فعلًا من أفعال الضمير ، ولا "يُنقل" فعل الضمير إلى الاتصال. ما يمكن لاختبار تورينج التحقق منه هو تقليد فعل تواصلي وليس فعل وعي. ما يحدث في وعي الكائن المتكلم لا يسبر غوره بالنسبة للمحاور ، وبالتالي ، لا يُضاهى. في مصطلحات علوم الكمبيوتر يمكننا القول أن الوعي "غير قابل للاختزال" ، أي أنه لا يمكن محاكاته بواسطة برنامج كمبيوتر.[الرابع عشر] ومن هناك نفهم أن روبوتات المحادثة هي على وجه التحديد "محادثات" ، أي محادثات وليست "روبوتات ذهنية". كما تجادل الباحثة إيلينا إسبوزيتو ، فإن ما تحاكي الخوارزميات هي عمليات تواصل وبالتالي يجب أن يطلق عليها "الاتصال الاصطناعي" وليس "الذكاء الاصطناعي".[الخامس عشر]
إنه تغيير في المنظور ، أو حتى نموذج ، للانتقال من تحليل الإدراك إلى تحليل المحادثة. بادئ ذي بدء ، هذا يسمح لنا بالتوقف عن الإشارة إلى عملية غامضة أو غير قابلة للرصد من الإدراك الاصطناعي. ثانيًا ، لأنه في نموذج المحادثة ، نجلب المراقب كمشارك في الفعل التواصلي. المحادثة (الدردشة) المسجلة من خلال "موجه" تحاكي تفاعل المراقب مع جهاز ، وهذا التفاعل هو موضوع التحليل النقدي. لجميع المقاصد والأغراض ، تتعلق الاختبارات المنطقية وعمليات البحث الموجهة آليًا عن المعلومات ، سواء كانت معقولة أم لا ، بالتفاعلات الاجتماعية. مع ذلك ، يغير السؤال التركيز: لم نعد نسعى إلى معرفة مدى قدرة إدراك الآلة ، ولكن ما مدى "مصداقية" المحادثة بين عامل بشري ووكيل إلكتروني.
يتم استخدام مفهوم المحاكاة الواقعية هنا بمعنى دقيق ، لأنه يتعلق بسياق التقليد الذي وضع فيه آلان تورينج لعبته. لا تقوم الدردشة بإعادة إنتاج محادثة حقيقية ، ولكنها تحاكيها (تقلدها). يتفاعل الوكيل البشري الذي يبحث عن المعلومات باستخدام واجهة Chat-GPT مع الجهاز كما لو كان يتحدث إليه. في هذه الحالة ، يبدو الأمر كما لو كان يستخدم "بوابة" للتواصل مع شبكة الإنترنت بالكامل (شبكة الاتصالات العالمية) وكان البرنامج متحدثًا باسم هذه الشبكة ، تقريبًا على غرار تمثال أبو الهول القديم للمعابد اليونانية.[السادس عشر]
ومثلما كان الحال في تلك الأيام ، فإن استجابة البرنامج تتسم بجودة غامضة نفهمها الآن على أنها معقدة. ينبع هذا التعقيد من حقيقة أن الجهاز لديه إمكانية الوصول إلى كمية هائلة من البيانات خلف سطح الشاشة الظاهر الذي لا يمكن تخيله بالنسبة لعامل بشري ، ولكن مع ذلك ، ليس لديه أي شيء خارق للطبيعة. تعمل الملايين من قواعد البيانات المتاحة على شبكة الويب العالمية كطبقة بنية أساسية كامنة (افتراضية) لجهاز سيبراني ضخم "يختبئ" خلف الواجهة الظاهرة للبرنامج.
لكن هل في الحقيقة محادثة ما بين الفاعل البشري ووكيل الآلة؟ أو بعبارة أخرى: هل المحادثة المحاكاة حقيقية حقًا؟ وهذا أحد أكثر موضوعات البحث إثارة للاهتمام ، لأن ما يتم تمثيله بشكل فعال هو التفاعل بين العامل البشري والجهاز السيبراني. لدى المستعلم طلب ويستجيب الجهاز لهذا الطلب بنص منظم بلغة طبيعية. تعمل هذه اللغة هنا كهيكل لغوي للاقتران بين الوكيل والآلة. من هذه الزاوية ، لا يختلف الموقف كثيرًا عن التفاعل مع لغة البرمجة المعتادة ، فقط اللغة الطبيعية هي الأكثر تعقيدًا.
يتمثل الاختلاف الأكبر في أن لغات البرمجة تحاول تقليل التفاعل مع الآلة إلى رمز واحد ، بينما لا يمكن التعبير عن اللغة الطبيعية برمز واحد ، بل على العكس من ذلك ، فهي مزيج من العديد من الرموز. في محادثة عادية ، يحاول اثنان من المحاورين تعديل الرموز التي يستخدمونها فيما بينهم حتى يكون الاتصال ناجحًا. في حالة AI by LLM ، يحتاج البرنامج إلى إجراء هذا التعديل وهذا ما نسميه "التأطير الدلالي". التعقيد (التعقيد) في هذه الحالة أعلى من ذلك بكثير ، لكن هذا لا يغير طبيعة الموقف الذي تتم محاكاته.
يمكننا أن نفهم هذا السيناريو الجديد بالقول إن الواجهات الدلالية الجديدة تزيد من درجة انعكاسية الجهاز السيبراني. لكن عند استخدام مصطلح "انعكاس" ، يجب ألا نخلط بينه وبين مفهوم الوعي مرة أخرى. تعني الانعكاسية هنا أن الآلة تعيد لنا صورة أكثر تعقيدًا للتفاعل بين الإنسان والآلة. يتم تمثيل هذه الصورة حاليًا من خلال "موجه" من اللغة المكتوبة (في المستقبل ستكون هناك وسائل أخرى للتمثيل). إنها صورة التفاعل وليست صورة المحاور.
إنها مثل المرآة التي تعكس رقص زوج من الراقصين ، لكن ليس الراقصين. هنا يمكننا استخدام فكرة المبدع الشهير لعلم التحكم الآلي ، الفيزيائي الرياضي نوربرت وينر ، الذي ميز بين الصورة التصويرية والصورة العملية. الصورة التصويرية هي الصورة التي نلاحظها عادة في اللوحات في اللوحات أو الصور الفوتوغرافية ، بينما الصورة العملية هي تمثيل تجريدي لعملية. قام وينر بهذا التمييز على وجه التحديد لمعارضة فكرة أن الذكاء الاصطناعي سيقدم بالضرورة أشكالًا مجسمة.[السابع عشر] وبالتالي ، فإن الصورة التي تعكسها الواجهة هي توضيح للتفاعل وليست صورة للمحاور ، ناهيك عن صورة الجهاز.
لكن السؤال يبقى بلا إجابة: هل هو حوار أم ليس حوارًا حقيقيًا بين الإنسان والآلة؟ ربما يكون هذا السؤال على وجه التحديد "غير قابل للتقرير" ، لكني أود أن أنهي هذا التفكير بإزاحة أخرى. دعونا نتذكر أن آلان تورينج قد حول السؤال الأولي (سواء كانت الآلة تفكر أم لا) إلى مجال "التقليد". لكني أود أن أنتقل إلى الجانب الآخر من التعبير ، إلى ساحة اللعب (لعبة). يميل استخدام روبوتات المحادثة اللغوية الطبيعية إلى التكثيف (دون ارتكاب أي خطأ) واكتساب دلالات مرحة بشكل متزايد. عندما نتفاعل مع البرنامج ، فإننا نلعب بالجهاز تمامًا كما نفعل بالفعل مع آلاف البرامج المختلفة. ألعاب. لا تزال هذه الألعاب تشكل أشكالًا من التدريب والتعلم الآلي.
يتم استخدام مفهوم اللعبة هنا بمعنى إنتاج مجموعات رمزية تكرارية. ولا تتوقف اللعبة بشكل فعال عن كونها نوعًا من التواصل البشري. لكن اللعب مع روبوتات المحادثة لا يعني بالضرورة اللعب مع وكيل آلة أو ضده. نحن نلعب مع أنفسنا وتعيد الآلة (تعكس) صورة اللعبة التي يتم لعبها. والمشاركون في هذه اللعبة ليسوا شياطين متجانسة أو شياطين إلكترونية مخبأة داخل الجهاز ، لكنهم مجموعة بشرية ضخمة تسجل تفاعلاتها المتعددة في أكثر الواجهات تنوعًا.
* وليام بريجر هو مهندس. مؤلف الكتاب الخرافات العلمية: الخطاب العلمي والتخمين التأملي (إد. قواعد).
الملاحظات
[أنا] المقال متوفر على هذا العنوان: https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[الثاني] تم وصف هذه الاعتراضات جيدًا إلى حد ما في إدخال Wikipedia المقابل للاختبار: https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[ثالثا] ومع ذلك ، لاحقًا في المقالة ، يقترح تورينج موقفًا آخر باستخدام آلة تورينج لتحل محل أي من المستجيبين.
[الرابع] كما سنرى لاحقًا ، لا يتبع ذلك أن البرنامج يجيب دائمًا على الأسئلة بدقة. أخطاء المعلومات المقدمة في الردود هي تأثير "متوقع" للنموذج.
[الخامس] تصادف أن تكون أدا لوفلايس ، ابنة اللورد بايرون ، التي كانت تعتبر من أوائل المبرمجين في التاريخ.
[السادس] كان هذا الدليل على التحيز واضحًا في مثال حديث دار حول الشبكات الاجتماعية: سأل أحد المحاورين Chat-GPT حيث يمكنه العثور على أفلام مقرصنة لتنزيل الأفلام ومشاهدتها دون الحاجة إلى الدفع. رد الشات بوت بأن مشاهدة الأفلام المقرصنة غير قانونية واقترح أن يبحث المحاور عن منصات بث مرخصة ودفع ثمن المعرض كوسيلة لمكافأة منتجي المحتوى. كما أدرجت المنصات المقرصنة التي لا ينبغي له الوصول إليها. في هذه الحالة ، تصرف روبوت المحادثة كمدافع عن حقوق ملكية حقوق النشر و الوضع الراهن للصناعة الثقافية. لو كان مستجيبًا "أناركيًا" أو "شيوعيًا" ، لما استجاب بهذه الطريقة. أو حتى يمكنه تفادي الإجابة ، مدعيا أن هذا سؤال يمكن أن ينتهك القواعد القانونية في بعض البلدان. كانت المشكلة أن البرنامج اقترح سلوكًا معينًا للمحاور البشري بدلاً من تجنب الحكم.
[السابع] في الاختبارات الأخيرة ، قدم GPT-4 (الذي تم إطلاقه في مارس 2023) ، وفقًا للباحثين ، ميولًا (انحيازًا) لمواقف سياسية يسارية في الغالب ، على الرغم من المطالبة دائمًا بالحياد. في الوقت نفسه ، كشف هؤلاء الباحثون أنفسهم أنه من الممكن تدريب ذكاء اصطناعي لعرض المواقف السياسية المحددة مع اليمين. يمكن إجراء مثل هذا التدريب بتكاليف منخفضة للغاية ، مما يشير إلى وجود خطر وشيك لاعتماد روبوتات الدردشة في النزاعات الأيديولوجية السياسية. يفحص https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[الثامن] تأتي العديد من استجابات روبوتات الدردشة بواسطة LLM في شكل "إيجابيات وسلبيات" ، مما يدل على أنها مصممة للاعتدال بين الطرفين بينما تقدم في نفس الوقت طريقة لإدراك مشارك في الثقافة أو المعرفة "المتوسطة".
[التاسع] لكي أكون صحيحًا تمامًا ، يشك البرنامج في مسألة كونه نوعًا من اللغز (لغز). وصفت التجربة على تويتر الفيلسوف: https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] يشير هذا المصطلح إلى مفهوم "الوادي الخارق" (وادي غريب) تمارس في مجال الروبوتات. يحدث هذا الوادي عندما يكون سلوك الإنسان الآلي مشابهًا جدًا لسلوك الإنسان ، وليس متطابقًا تمامًا ، ودائمًا ما يقدم درجة من الغرابة. غالبًا ما يتم استكشاف هذا الموقف في الخيال العلمي.
[شي] تشاور https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task. تقرير افتح منظمة العفو الدولية مع وصف الاختبار متاح هنا https://cdn.openai.com/papers/gpt-4.pdf.
[الثاني عشر] في الواقع ، هناك بالفعل العديد من التجارب التي تنطوي على استخدام الذكاء الاصطناعي من قبل LLM لتكوين الشعر النثري والخيالي. أحد الأمثلة ، من بين العديد ، موجود في هذا الموقع حيث يقوم Chat-GTP3 بتكوين مقتطفات haiku ومقتطفات خيالية: https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. ومن المثير للاهتمام أن الكاتب إيتالو كالفينو قد توقع في الستينيات بالفعل إمكانية إنشاء "إنسان آلي أدبي" يمكن أن يحل محل الشعراء والكتاب. في البداية ، ستكون هذه الآلات الآلية قادرة على كتابة أعمال "كلاسيكية" ذات ذخيرة تقليدية ، لكن كالفينو كان يعتقد أن "آلة أدبية" يمكن أن تظهر ، من خلال اللعبة الاندماجية ، من شأنها تطوير أعمال طليعية من شأنها أن تنتج اضطرابًا في الأدب. التقليد. انظر مقال علم التحكم الآلي والأشباح (ملاحظات حول السرد كعملية تجميعية) (60) في كالفينو ، إيتالو. الموضوع مغلق. نقاشات في الأدب والمجتمع. ساو باولو ، Cia das Letras ، 2009.
[الثالث عشر] في هذه التجربة ، في غرفة منعزلة ، يمكن للمختبر تلقي نصوص باللغة الإنجليزية من خلال شق ، ومن خلال برنامج مترجم ، ينتج الترجمة بواسطة إيديوغرامات صينية باتباع خطوات خوارزمية ترجمة البرنامج. ستكون التجربة ناجحة في حالة وجود خوارزمية جيدة ، لكن المترجم لن يحتاج إلى التحدث أو التعبير عن نفسه باللغة الصينية أو فهم محتوى الرسائل. يفحص: https://en.wikipedia.org/wiki/Chinese_room. يمكننا أيضًا التفكير في المترجمين الفوريين في المؤتمرات والندوات: فهم لا يحتاجون إلى فهم محتوى المحاضرات للقيام بعمل جيد.
[الرابع عشر] عدم الاختزال في علوم الكمبيوتر يعني أنه لا يمكن محاكاة العملية الحسابية أو اختصارها بواسطة أي عملية حسابية أخرى أبسط ، وهو نفس القول بأنه لا يمكن "برمجتها" إلا من خلال عملية متطابقة تمامًا. يفحص https://en.wikipedia.org/wiki/Computational_irreducibility.
[الخامس عشر] تحقق من إيلينا إسبوزيتو ، https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[السادس عشر] مفهوم أوراكل هنا ليس مجرد استعارة ، ولكنه يستخدم بمعنى حسابي صارم لتحديد كيان مغلق مجردة (الصندوق الأسود) الذي يستجيب لأسئلة من المستفسر.
[السابع عشر] انظر WIENER، Norbert. God & Golem ، Inc: تعليق على بعض النقاط التي يؤثر فيها علم التحكم الآلي على الدين. (1964). متوفر في https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
يوجد موقع A Terra é Redonda الإلكتروني بفضل قرائنا وداعمينا.
ساعدنا على استمرار هذه الفكرة.
انقر هنا واكتشف كيف