إنه عندما أسمع عبارة "تقنية البلوك تشين المُدمجة بالذكاء الاصطناعي"، لا أشعر بالحماس في البداية، بل بشيء من التوتر. لقد اكتسبت تقنية البلوك تشين مكانتها بفضل ثباتها المُطلق: فالمدخلات نفسها تُنتج النتائج نفسها، والقواعد قابلة للتحقق من قِبل أطراف لا تثق ببعضها. أما الذكاء الاصطناعي، على النقيض، فغالباً ما يكون مفيداً تحديداً لأنه قابل للتكيف، واحتمالي، وغير مُنظم. فهو قادر على التخمين، والتعميم، والتغيير مع البيانات الجديدة. هذه القدرات الفطرية قوية، لكنها لا تتوافق بطبيعتها مع نوع اليقين الذي تتطلبه البنية التحتية المالية عادةً.

تقدم فانار نفسها كسلسلة مصممة لأعباء عمل الذكاء الاصطناعي و"الذكاء المدمج"، مستخدمةً لغةً توحي بتطبيقات غنية بالبيانات، وعمليات دلالية، وطبقة أكثر "ذكاءً" لتقنية الويب 3. نظرياً، يبدو هذا توجهاً عملياً: فالعديد من التطبيقات الحديثة تعتمد على البحث والتوصيات ومطابقة الأنماط. إذا أرادت العملات الرقمية دعم تجارب حقيقية على نطاق واسع للمستهلكين، فلا يمكنها تجاهل هذه الحقيقة إلى الأبد.

لكن بمجرد أن تتجه سلسلة التداول نحو سلوكيات شبيهة بالذكاء الاصطناعي، تتغير معايير التقييم. لم يعد السؤال "هل يمكنها العمل؟" بل أصبح "هل يمكنها تفسير نفسها؟". في الأسواق الحقيقية، ليست الأنظمة الأقوى هي تلك التي تبدو ذكية في الأيام الجيدة، بل تلك التي تحافظ على كفاءتها في الأيام السيئة.

تتمثل المشكلة الأولى في الحتمية. يُفترض أن يتصرف العقد الذكي بشكل متوقع. حتى عندما يكون معقدًا، يمكنك فحص منطقه واختبار نتائجه. لكن العديد من أنظمة الذكاء الاصطناعي لا تعمل بهذه الطريقة. فهي تُنتج مخرجات قد تختلف باختلاف البيانات، أو تحديثات النموذج، أو تغييرات المعلمات، أو حتى التحولات الطفيفة في المدخلات. إذا كان تصميم فانار يتضمن عناصر أساسية تتمحور حول الذكاء الاصطناعي - سواء كان ذلك بحثًا قائمًا على المتجهات، أو مطابقة التشابه، أو وحدات "ذكاء" - فإن الصعوبة لا تكمن في الأداء. الصعوبة تكمن في تحديد ما يُعتبر نتيجة صحيحة عندما يختلف مستخدمان.

يُقلل الناس من شأن مدى شيوع الخلافات كنتيجة حقيقية. ففي مجال المدفوعات، تُعدّ النزاعات أمرًا طبيعيًا. وفي مجال الإقراض، تُثار الشكوك حول عمليات التصفية. وفي مجال التحقق من الهوية، تُؤدي النتائج الإيجابية والسلبية الخاطئة إلى عواقب وخيمة. إذا استخدمت سلسلة الكتل أو طبقة التطبيق قرارات شبيهة بالذكاء الاصطناعي، فإن "الحقيقة" لم تعد تقتصر على الصلاحية التشفيرية فحسب، بل أصبحت تتعلق بالمصدر: ما هي البيانات المستخدمة، ولماذا قُبلت، ومن قام بمعالجتها، وما هي البدائل التي تم استبعادها.

هنا يبرز مفهوم قابلية التدقيق. تتميز سلاسل الكتل التقليدية بنوع بسيط من قابلية التدقيق: إمكانية إعادة تشغيل تحولات الحالة والتحقق من التوقيعات. أما الذكاء الاصطناعي فيُدخل نوعًا مختلفًا. لتدقيق نتيجة متأثرة بالذكاء الاصطناعي، غالبًا ما تحتاج إلى شرح لعملية اتخاذ القرار، ومصادر البيانات، وإصدارات النماذج أو التضمينات. بدون ذلك، ستبقى أمامك منظومة مبهمة قد تكون مفيدة، لكنها غير قابلة للإدارة بشكل موثوق.

إذا كانت فانار تسعى لأن تكون سلسلة "بنية تحتية للذكاء الاصطناعي"، فهي بذلك تختار ضمنيًا حلاً وسطًا. إنها تراهن على أن قيمة الحوسبة الأكثر تطورًا وتجربة المستخدم الأفضل تفوق تكلفة التعقيد. وهذا ليس خطأً بالضرورة، ولكنه يغير ما يجب أن يطالب به المستخدمون. فبدلاً من المطالبة بتسريع معالجة الكتل، ينبغي عليهم المطالبة بشفافية أكبر حول ما يمكن تغييره ومن يُسمح له بذلك.

لأن أنظمة الذكاء الاصطناعي تتعرض للانحراف. هذه ليست مسألة أخلاقية، بل حقيقة تقنية. قد يحدث انحراف النموذج عند تغير البيانات الأساسية، أو عند تغير السلوك، أو عند تحديث النظام للتعامل مع حالات جديدة. قد يكون الانحراف ميزة في تطبيق استهلاكي. في مجال التمويل، قد يبدو الانحراف على أنه عدم القدرة على التنبؤ. إذا غيّر نظام "يساعد" في اتخاذ القرارات سلوكه تدريجيًا، يصبح تحديد المسؤولية أمرًا غامضًا. هل كان ذلك خطأً برمجيًا؟ أم تحديثًا للنموذج؟ أم تغيرًا في البيانات؟ أم تغييرًا في السياسة؟ الإجابة مهمة، لأن الناس سيرغبون في وجود جهة مسؤولة.

يقودنا هذا إلى نقطة غير مريحة: كلما ازداد ذكاء النظام، ازداد ميله إلى مركزية السلطة، غالبًا في الخفاء. لا بدّ من وجود جهة تُقرر أيّ مجموعات البيانات جديرة بالثقة، وجهة تُوافق على تحديثات النماذج، وجهة تُحدد معنى "الأداء الجيد". حتى وإن اتُخذت هذه القرارات عبر الحوكمة، فإنّ معظم المستخدمين لا يُشاركون فيها بشكلٍ كافٍ لتقييمها تقييمًا فعّالًا، بل يكتفون بتحمّل عواقبها.

لذا، فإن الاختبار الأساسي لفانار لا يكمن في قدرتها على دمج مفاهيم الذكاء الاصطناعي، بل في قدرتها على الحفاظ على حياد موثوق مع مراعاة حاجة الذكاء الاصطناعي المتأصلة إلى التنسيق. فإذا كان النظام يعتمد على بيانات منسقة، أو نماذج منسقة، أو تضمينات منسقة، أو فهارس منسقة، فإنه يحتاج إلى عمليات عامة فعّالة لتحديد كيفية اختيار هذه العناصر وتحديثها والتحقق منها.

يوجد أيضًا تباين دقيق بين "جدوى الذكاء الاصطناعي" و"القيود المفروضة على سلسلة الكتل". فالعديد من عمليات الذكاء الاصطناعي مكلفة، وتتطلب كميات هائلة من البيانات، وتعتمد على التكرار. وسلاسل الكتل بيئات مقيدة. فإذا ادعت سلسلة ما دعمها لأعباء عمل الذكاء الاصطناعي، فقد تعتمد على الحوسبة خارج السلسلة، أو التمثيلات المضغوطة، أو التصاميم الهجينة. قد يكون ذلك عمليًا، ولكنه يُعيد إدخال تبعيات الثقة. وبمجرد ظهور تبعيات الثقة، يجب على النظام تصنيفها بوضوح، ليس كهامش، بل كجزء أساسي من نموذج إدارة المخاطر.

إنّ أي سلسلة تُقرّب نفسها من منصات الدفع الإلكتروني أو من واقع التمويل العالمي ترفع سقف التوقعات إلى مستوى أعلى. فالمؤسسات لا تكتفي بالابتكار فحسب، بل تسعى إلى قابلية التكرار، ووضوح المسؤولية، وسجلات التدقيق. إنها تريد معرفة ما يحدث عند حدوث خلل في النظام، وإجراءات تصحيحية لا تبدو ارتجالية. إذا لم يُلبِّ تصميمٌ قائمٌ على الذكاء الاصطناعي هذه المتطلبات، فقد يجذب التجارب ولكنه سيواجه صعوبة في الانتشار الواسع.

بطريقة ما، يفرض طموح فانار سؤالاً مهماً: هل نبني أنظمة "أكثر ذكاءً"، أم نبني أنظمة قادرة على تبرير القرارات عند التدقيق؟ ​​هذان الأمران ليسا متطابقين. قد يكون النظام ذكياً ولكنه غير جدير بالثقة. وقد يكون دقيقاً في المتوسط ​​ولكنه غير مقبول عندما تتسبب الحالات الشاذة في ضرر حقيقي.

لذا، لو كنتُ بصدد تقييم فانار كبنية تحتية، لكنتُ سأبحث عن مؤشرات للمساءلة المنضبطة: ترقيم واضح لإصدارات أي مكونات متعلقة بالمعلومات الاستخباراتية، وآليات علنية للطعن في النتائج، ووصف دقيق لما هو موجود على سلسلة الكتل وما هو خارجها، ونموذج تهديد واقعي يُقرّ بمصادر السلطة. ليس الهدف هو إثارة الشكوك، بل لأن التمويل يُعاقب الغموض في نهاية المطاف.

قد يكون فانار محقًا في أن الجيل القادم من التطبيقات سيحتاج إلى عناصر أساسية شبيهة بالذكاء الاصطناعي ليكون سهل الاستخدام. ولكن إن صحّ ذلك، فإن مهمة النظام ليست أن يبدو ذكيًا، بل أن يظل واضحًا. لأنه عندما تتعطل الأمور، لن يسأل الناس عما إذا كان النظام مبتكرًا، بل سيسألون عما إذا كان عادلًا، وما إذا كان قابلًا للتفسير، وما إذا كان بالإمكان محاسبة أي شخص.

والجزء الأصعب هو أنه لا يمكنك تعديل ذلك لاحقاً. فمفهوم المساءلة يُصمم في البداية، وليس بعد الأزمة الأولى.

لا أعتقد أن السؤال هو ما إذا كان الذكاء الاصطناعي ينتمي إلى الجيل الثالث من الويب (Web3). السؤال هو ما نحن على استعداد للتضحية به لوضعه هناك - اليقين، والبساطة، والحياد، أو القدرة على القول، بكل ثقة، "هذا هو السبب الدقيق وراء ما فعله النظام". إذا لم تستطع سلسلة ما الإجابة على ذلك، فقد تستمر في النمو. لكن النمو لا يعني بالضرورة الثقة ولا تعتمد عليهاالمالية الا في الوقت الحقيقي.💜

@Vanarchain #Vanar $VANRY #vanar

VANRY
VANRY
0.006146
-5.51%