تعمیم‌پذیری خارج‌از‌توزیع شبکه‌های عصبی گرافی با رویکرد یادگیری تقابلی

نوع مقاله : مقاله پژوهشی

نویسندگان

1 دانشگاه سمنان، دانشکده مهندسی برق و کامپیوتر

2 دانشگاه سمنان

3 دانشگاه دامغان

چکیده

در این مقاله، چالش تعمیم‌پذیری خارج‌ازتوزیع (OOD) در شبکه‌های عصبی گرافی (GNN) برای مسئله طبقه‌بندی گره‌ها مورد بررسی قرار گرفته است. با توجه به کاربرد گسترده GNNها در حوزه‌های مختلف علمی و صنعتی، ضعف این مدل‌ها در مواجهه با داده‌های خارج از توزیع محیط آموزش به‌عنوان یک محدودیت اساسی شناخته می‌شود. این مقاله با تمرکز بر یادگیری تقابلی، یک مدل مبتنی بر معماری سیامی پیشنهاد می‌دهد که با تقویت داده و تولید نمونه‌های مثبت از طریق به‌هم‌ریختگی ماتریس ویژگی گره‌ها و نیز با به‌کارگیری تابع اتلاف سه‌جزئی شامل بیشینه‌سازی شباهت بازنمایی، شباهت پیش‌بینی برچسب و دقت پیش‌بینی، بهبود قابل‌توجهی در تعمیم‌پذیری OOD حاصل می‌کند. مدل پیشنهادی بدون نیاز به تولید نمونه‌های منفی و با کاهش پیچیدگی محاسباتی، توانسته است عملکرد بهتری نسبت به روش‌های پایه از خود نشان دهد و به‌صورت میانگین در معیار GAP، شکاف عملکرد بین سناریوهای IID و OOD را تا 75/19% کاهش داده و ضمنا به میانگین دقت OOD برابر با 04/55% دست یافته است.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Out-of-Distribution Generalization in Graph Neural Networks via Contrastive Learning

نویسندگان [English]

  • Seyedeh Hamideh Erfani 1
  • Mohammad Javad Fadaeieslam 2
  • Reza Mortazavi 3
  • Mohammad Rahmanimanesh 1
1 Semnan University, Electrical and Computer Engineering Faculty
2 Semnan University, Electrical and Computer Engineering Faculty
3 Damghan University
چکیده [English]

Graph Neural Networks (GNNs) excel at learning from graph-structured data but suffer significant performance degradation under distribution shifts between training and test environments. This paper proposes a Siamese-based contrastive learning framework for improving out-of-distribution (OOD) generalization in node classification tasks. Our approach generates positive samples through feature matrix perturbation without requiring negative samples, thereby reducing computational complexity. The model employs dual GCN encoders and MLP classifiers with shared weights, optimized using a three-component loss function that maximizes representation similarity, prediction consistency, and classification accuracy. Experimental evaluation on GOOD benchmark datasets across both covariate and concept shift scenarios demonstrates that our method outperforms baseline approaches. This work demonstrates that contrastive learning with Siamese architecture offers a computationally efficient and effective solution for enhancing GNN robustness under distribution shifts, with promising implications for real-world applications requiring reliable model performance in dynamic environments. The proposed method on average and in the GAP metric, has reduced the performance gap between IID and OOD scenarios by 19.75%, while also achieving an average OOD accuracy of 55.04%.

کلیدواژه‌ها [English]

  • Graph Neural Networks
  • Out-of-Distribution Generalization
  • Contrastive Learning
  • Node Classification
  • Siamese Architecture

مقالات آماده انتشار، پذیرفته شده
انتشار آنلاین از تاریخ 24 فروردین 1405
  • تاریخ دریافت: 13 آبان 1404
  • تاریخ بازنگری: 14 دی 1404
  • تاریخ پذیرش: 06 بهمن 1404