Learning optimally sparse support vector machines

Andrew Cotter, Nathan Srebro, Shai Shalev-Shwartz

פרסום מחקרי: תוצר מחקר מכנסהרצאהביקורת עמיתים


We show how to train SVMs with an optimal guarantee on the number of support vectors (up to constants), and with sample complexity and training runtime bounds matching the best known for kernel SVM optimization (i.e. without any additional asymptotic cost beyond standard SVM training). Our method is simple to implement and works well in practice.

שפה מקוריתאנגלית אמריקאית
מספר עמודים9
סטטוס פרסוםפורסם - 2013
אירוע30th International Conference on Machine Learning, ICML 2013 - Atlanta, GA, ארצות הברית
משך הזמן: 16 יוני 201321 יוני 2013


כנס30th International Conference on Machine Learning, ICML 2013
מדינה/אזורארצות הברית
עירAtlanta, GA

ASJC Scopus subject areas

  • ???subjectarea.asjc.1700.1709???
  • ???subjectarea.asjc.3300.3312???

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Learning optimally sparse support vector machines'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי