تحلیل و مصورسازی تولیدات علمی حوزه هوش‌مصنوعی توضیح‌پذیر و گراف دانش در پایگاه استنادی وب‌آو ساینس در بازه زمانی 2024-2020

نوع مقاله : مقاله پژوهشی

نویسنده

گروه اشاعه اطلاعات، پژوهشگاه علوم و فرهنگ اسلامی، قم، ایران

10.22091/apss.2025.13227.1044

چکیده

سابقه و هدف: هوش‌مصنوعی توضیح‌پذیر به‌عنوان یکی از حوزه‌های نوظهور و راهبردی در پژوهش‌های مرتبط با هوش‌مصنوعی مطرح است که هدف آن افزایش شفافیت، اعتماد و توضیح‌پذیری سامانه‌های هوشمند است. در همین راستا، گراف دانش با فراهم‌سازی چارچوبی ساختاریافته برای نمایش و سازماندهی روابط پیچیده میان موجودیت‌های داده‌ای، نقش مهمی در ارتقای درک مفهومی از داده‌ها ایفا می‌کند. همگرایی دو حوزه هوش‌مصنوعی و گراف دانش می‌تواند موجب بهبود عملکرد کیفی و افزایش قابلیت توضیح‌پذیری سامانه‌های مبتنی بر هوش‌مصنوعی شود؛ به‌ویژه در کاربردهای حیاتی نظیر سامانه‌های هوافضا، فناوری هسته‌ای و پزشکی که نیازمند دقت عملیاتی و اعتماد بالا هستند. با وجود ظرفیت‌های چشمگیر این رویکرد تلفیقی، تاکنون مطالعات اندکی به بررسی نظام‌مند و جامع آن پرداخته‌اند. هدف این پژوهش، تحلیل روندها و ساختار علمی موجود در حوزه‌های هوش‌مصنوعی توضیح‌پذیر و گراف دانش با بهره‌گیری از روش‌های علم‌سنجی است.
مواد و روش: پژوهش حاضر از نوع کاربردی و با استفاده از ابزارهای علم سنجی از جمله ووس-ویور و یوسینت انجام شده است. پژوهش شامل کلیه رکوردهای اطلاعاتی نمایه شده مرتبط با گراف دانش و هوش‌مصنوعی توضیح‌پذیر طی سال‌های 2020-2024 با تعداد 13818 رکورد اطلاعاتی شامل مقاله، کتاب، چکیده و... تجزیه و تحلیل می‌کند تا روندهای پژوهشی جهانی، نویسندگان برجسته، مؤسسات و خوشه‌های پژوهشی را شناسایی کند.
یافته‌ها: تحلیل داده‌های علمی نشان می‌دهد کشور چین با ثبت ۶۰۲۷ مدرک پژوهشی، پیشتاز تحقیقات در این حوزه بوده و سهمی چشمگیر از تولیدات علمی را به خود اختصاص داده است. ایالات متحده آمریکا و آلمان به ترتیب در رده‌های بعدی قرار دارند که نشان‌دهنده تمرکز اصلی پژوهش‌های جهانی در این سه کشور است. از منظر موضوعی، کلیدواژه‌های گراف دانش، هوش‌مصنوعی توضیح‌پذیر و یادگیری ماشین بیشترین تکرار را در مقالات داشته‌اند که حاکی از اهمیت این مفاهیم در تحقیقات اخیر است. نتایج تحلیل خوشه‌ای نشان می‌دهد که پژوهش‌های این حوزه عمدتاً در چهار جهت اصلی توسعه یافته‌اند: (1) مدل‌سازی مبتنی بر گراف که به بررسی روابط ساختاری داده‌ها می‌پردازد، (2) کاربردهای معنایی که بر جنبه‌های کاربردی تأکید دارد، (3) قابلیت توضیح در یادگیری ماشین که به شفاف‌سازی مدل‌ها مربوط می‌شود و نهایتاً (4) استخراج ویژگی و مدل‌سازی پیش‌بینی که بر بهبود عملکرد سیستم‌ها متمرکز است. این یافته‌ها نشان می‌دهد که جامعه علمی به صورت نظام‌مند به جنبه‌های نظری و عملی این حوزه پرداخته است.
نتیجه‌گیری: تحلیل داده‌ها نشان می‌دهد که حوزه‌های گراف دانش و هوش‌مصنوعی توضیح‌پذیر درکشورهای پیشگام عرصه هوش‌مصنوعی مورد توجه بالاتری بوده و منجر به افزایش تعداد تولیدات علمی این حوزه‌ها در این کشورها شده است. پژوهش حاضر می‌تواند یک نمای کلی جامع از چشم‌انداز پژوهش ارائه دهد و بینش‌های ارزشمندی را برای محققان و سیاست‌گذاران به منظور پیشبرد توسعه هوش‌مصنوعی توضیح‌پذیر و گراف‌ دانش و در نتیجه رفع شکاف‌های موجود در شفافیت و توضیح‌پذیری در سیستم‌های هوش‌مصنوعی ارائه می‌کند.

کلیدواژه‌ها


عنوان مقاله [English]

Analysis and Visualization of Scientific Studies in the Field of Explainable Artificial Intelligence and Knowledge Graph in the Web of Science Citation Database from 2020 to 2024

نویسنده [English]

  • Ali Mirarab
Information Dissemination, Islamic Sciences and Culture Academy, Qom, Iran
چکیده [English]

Background and Aim: Explainable Artificial Intelligence (XAI) is emerging as a strategic and growing field within AI research. Its primary goal is to enhance the transparency, trustworthiness, and explainability of intelligent systems. In parallel, knowledge graphs (KGs) play a crucial role in improving the conceptual understanding of data by providing a structured framework for representing and organizing complex relationships between data entities. The convergence of XAI and KGs can lead to improved qualitative performance and increased explainability in AI-based systems, especially in critical applications such as aerospace, nuclear technology, and medicine, which demand high operational accuracy and reliability. Despite the significant potential of this integrated approach, few studies have systematically and comprehensively investigated it. This research aims to analyze the trends and scientific structure within the fields of explainable AI and knowledge graphs using bibliometric methods.
Materials and Methods: This applied research utilizes bibliometric tools, including VOSviewer and Ucinet. The study analyzes all indexed information records related to knowledge graphs and explainable AI from 2020 to 2024, comprising 13,818 records (including articles, books, abstracts, etc.). The goal is to identify global research trends, prominent authors, institutions, and research clusters.
Findings: Analysis of the scientific data reveals that China leads research in this domain with 6,027 research documents, accounting for a significant share of scientific output. The United States and Germany follow, indicating that these three countries are the primary global research hubs. From a thematic perspective, the keywords knowledge graph, explainable AI, and machine learning had the highest frequency in articles, underscoring their importance in recent research. Cluster analysis results indicate that research in this field has primarily developed in four main directions: (1) graph-based modeling, which examines structural relationships in data; (2) semantic applications, emphasizing practical aspects; (3) explainability in machine learning, related to making models transparent; and finally, (4) feature extraction and predictive modeling, focused on improving system performance. These findings demonstrate that the scientific community has systematically addressed both the theoretical and practical aspects of this field.
Conclusion: The data analysis suggests that the fields of knowledge graphs and explainable AI have received significant attention in leading AI countries, resulting in an increased volume of scientific output in these nations. This research provides a comprehensive overview of the research landscape and offers valuable insights for researchers and policymakers to advance the development of explainable AI and knowledge graphs, thereby addressing existing gaps in transparency and explainability within AI systems.

کلیدواژه‌ها [English]

  • Knowledge Graph
  • Aritidicial Intelligence
  • Explainable AI
  • Visualization
  • Scientometrics