<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> aggiungere metodo con CC oltre SLD</p>
</li>
<liclass="task-list-item enabled">
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> prendere classe più popolosa di rcv1, togliere negativi fino a raggiungere 50/50; poi fare subsampling con 9 training prvalences (da 0.1-0.9 a 0.9-0.1)</p>
</li>
<liclass="task-list-item enabled">
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> variare parametro recalibration in SLD</p>
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> vedere cosa usa garg di validation size</p>
</li>
<liclass="task-list-item enabled">
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> per model selection testare il parametro c del classificatore, si esplora in np.logscale(-3,3, 7) oppure np.logscale(-4, 4, 9), parametro class_weight si esplora in None oppure "balanced"; va usato qp.model_selection.GridSearchQ in funzione di mae come errore, UPP come protocollo</p>
<ul>
<li>qp.train_test_split per avere v_train e v_val</li>
<li>GridSearchQ(
model: BaseQuantifier,
param_grid: {
'classifier__C': np.logspace(-3,3,7),
'classifier__class_weight': [None, 'balanced'],
'recalib': [None, 'bcts']
},
protocol: UPP(V_val, repeats=1000),
error = qp.error.mae,
refit=True,
timeout=-1,
n_jobs=-2,
verbose=True).fit(V_tr)</li>
</ul>
</li>
<liclass="task-list-item enabled">
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> plot collettivo, con sulla x lo shift e prenda in considerazione tutti i training set, facendo la media sui 9 casi (ogni line è un metodo), risultati non ottimizzati e ottimizzati</p>
</li>
<liclass="task-list-item enabled">
<p><inputclass="task-list-item-checkbox"checked=""type="checkbox"> salvare il best score ottenuto da ogni applicazione di GridSearchQ</p>
<ul>
<li>nel caso di bin fare media dei due best score</li>