چارچوبی برای همگرایی پایدار ذی‌نفعان در حاکمیت مسئولانه هوش مصنوعی

نوع مقاله : مقاله علمی- پژوهشی

نویسندگان

1 گروه مهندسی کامپیوتر، واحد بین المللی اروند، دانشگاه آزاد اسلامی، آبادان، ایران

2 دانشکده مهندسی کامپیوتر، واحد نجف آباد، دانشگاه آزاد اسلامی، نجف‌آباد، ایران

چکیده
با توجه به تأثیر فزاینده فناوری‌های هوش مصنوعی در ابعاد مختلف زندگی، تدوین چارچوبی جامع برای مدیریت ذی‌نفعان و حاکمیت مؤثر هوش مصنوعی امری ضروری است. این مقاله به بررسی حاکمیت هوش مصنوعی و نقش حیاتی ذی‌نفعان در تدوین و اجرای اصول و مقررات مرتبط می‌پردازد. روش تحلیل SWOT (نقاط قوت، ضعف‌ها، فرصت‌ها و تهدیدها) به عنوان مبنایی برای شناسایی عوامل داخلی و خارجی مؤثر بر حاکمیت هوش مصنوعی استفاده شده است. ارزیابی ذی‌نفعان بر اساس پنج معیار کلیدی شامل تأثیرگذاری، اهمیت، قدرت مالی، تخصص فنی و مشروعیت انجام می‌شود. این معیارها از طریق نظرسنجی‌های ساختاریافته که در میان کارشناسان حوزه حاکمیت هوش مصنوعی توزیع شده‌اند، کمّی‌سازی شده و نتایج آن با استفاده از فرایند تحلیل سلسله‌مراتبی جهت اولویت‌بندی و رتبه‌بندی ذی‌نفعان بررسی شده است. این پژوهش بر لزوم همکاری بین نهادهای دولتی، بخش خصوصی، سازمان‌های مدنی و مؤسسات پژوهشی جهت تدوین اصول مسئولانه و هماهنگ تأکید دارد. جداول تحلیلی برای شناسایی و اولویت‌بندی ذی‌نفعان و مقایسه نقش و تأثیرگذاری آن‌ها ارائه شده است. هدف نهایی این مطالعه، ارائه چارچوبی هوشمند و کیفی برای مدیریت ذی‌نفعان و دستیابی به حاکمیت شفاف، مؤثر و پایدار هوش مصنوعی است. یافته‌های پژوهش نشان می‌دهد که دولت‌ها و نهادهای تنظیم‌گر، همراه با شرکت‌های فناوری، بیشترین تأثیر و اهمیت را در فرایند حاکمیت هوش مصنوعی دارند، در حالی که مراکز تحقیقاتی، سازمان‌های مدنی و کاربران نهایی در رتبه‌های پایین‌تر قرار می‌گیرند. این تحقیق به سیاست‌گذاران، پژوهشگران و نهادهای نظارتی اختصاص دارد و می‌تواند مبنایی برای توسعه استراتژی‌های حاکمیتی هوش مصنوعی باشد.

کلیدواژه‌ها

موضوعات


عنوان مقاله English

A framework for sustainable stakeholder convergence in responsible AI governance

نویسندگان English

maryam nooraei abadeh 1
shohreh Ajoudanian 2
1 Department of Computer Engineering, International Arvand Branch, Islamic Azad University, Abadan, Iran ma.nooraei@iau.ac.ir
2 Faculty of Computer Engineering, Najafabad Branch, Islamic Azad University, Najafabad, Iran shajoudanian@pco.iaun.ac.ir
چکیده English

 
Introduction
With the rapid expansion of artificial intelligence (AI) systems across public and private sectors, coordinated governance and purposeful stakeholder engagement have become essential. This study introduces a compact framework that combines SWOT analysis with stakeholder prioritization to support transparent, effective, and sustainable AI governance.
Methodology
The research follows three main steps: (1) Identifying internal and external drivers of AI governance through SWOT analysis; (2) Recognizing key stakeholders—including regulators, technology companies, research institutions, civil society organizations, and end users—and assessing them according to five criteria: influence, importance, financial capacity, technical expertise, and legitimacy; (3) Quantifying expert survey responses and applying the Analytic Hierarchy Process (AHP) to weight the criteria and rank the stakeholders. The outcomes include priority matrices and comparative tables.
Findings and Discussion
The AHP results show that governments/regulators and technology companies rank highest due to their legal authority, resources, and technical capabilities. Research institutions and civil society organizations occupy a middle tier—they play a key role in legitimacy and oversight but often face limited resources. End users have less influence in setting agendas but are crucial for ensuring fairness, safety, and accountability. The SWOT analysis reveals key strengths (growing institutional awareness), weaknesses (fragmented missions, uneven literacy), opportunities (standardization, public–private partnerships), and threats (regulatory disputes, concentration of capabilities). Aligning powerful actors with those that strengthen legitimacy can reduce institutional capture and promote responsible AI adoption.
Conclusion
The proposed framework offers a practical tool for organizing stakeholder interactions, defining roles, and tracking governance maturity. Cross-sector collaboration—especially between regulators and technology companies—should be supported by structured mechanisms for including input from research institutions, civil society, and end users. Future studies can test alternative evaluation criteria and explore cross-national case examples.

کلیدواژه‌ها English

SWOT analysis
Responsible Technology
AI Regulation
Governance of Emerging Technologies

  • تاریخ دریافت 21 تیر 1404
  • تاریخ بازنگری 12 مهر 1404
  • تاریخ پذیرش 19 مهر 1404