Learning optimally sparse support vector machines

Andrew Cotter, Nathan Srebro, Shai Shalev-Shwartz

פרסום מחקרי: תוצר מחקר מכנסהרצאהביקורת עמיתים

תקציר

We show how to train SVMs with an optimal guarantee on the number of support vectors (up to constants), and with sample complexity and training runtime bounds matching the best known for kernel SVM optimization (i.e. without any additional asymptotic cost beyond standard SVM training). Our method is simple to implement and works well in practice.

שפה מקוריתאנגלית אמריקאית
עמודים266-274
מספר עמודים9
סטטוס פרסוםפורסם - 2013
אירוע30th International Conference on Machine Learning, ICML 2013 - Atlanta, GA, ארצות הברית
משך הזמן: 16 יוני 201321 יוני 2013

כנס

כנס30th International Conference on Machine Learning, ICML 2013
מדינה/אזורארצות הברית
עירAtlanta, GA
תקופה16/06/1321/06/13

ASJC Scopus subject areas

  • ???subjectarea.asjc.1700.1709???
  • ???subjectarea.asjc.3300.3312???

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Learning optimally sparse support vector machines'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי