Learning optimally sparse support vector machines

Andrew Cotter, Nathan Srebro, Shai Shalev-Shwartz

نتاج البحث: نتاج بحثي من مؤتمرمحاضرةمراجعة النظراء


We show how to train SVMs with an optimal guarantee on the number of support vectors (up to constants), and with sample complexity and training runtime bounds matching the best known for kernel SVM optimization (i.e. without any additional asymptotic cost beyond standard SVM training). Our method is simple to implement and works well in practice.

اللغة الأصليةإنجليزيّة أمريكيّة
عدد الصفحات9
حالة النشرنُشِر - 2013
الحدث30th International Conference on Machine Learning, ICML 2013 - Atlanta, GA, الولايات المتّحدة
المدة: ١٦ يونيو ٢٠١٣٢١ يونيو ٢٠١٣


!!Conference30th International Conference on Machine Learning, ICML 2013
الدولة/الإقليمالولايات المتّحدة
المدينةAtlanta, GA

All Science Journal Classification (ASJC) codes

  • !!Human-Computer Interaction
  • !!Sociology and Political Science


أدرس بدقة موضوعات البحث “Learning optimally sparse support vector machines'. فهما يشكلان معًا بصمة فريدة.

قم بذكر هذا