- Registriert
- 24. Februar 2009
- Beiträge
- 266
- Reaktionspunkte
- 54
- Punkte
- 88
Nach mehrern tests mit mehr als 2 sky karten habe ich festgeschtelt das der kpcs in einem pid. /kpcs/ (also wen alle karten unter einem proces laufen) einem sch**** loadbalancer hat...
Es kommt mir vor er geht nach dem Motto faster reader first, was eigendlich keine gute sache ist, es wäre mir lieber older reader first...
Trotz kpcs.services kommen die ecm zeiten zu hoch..
Nach weiteren Tests habe ich die karten aufgeteilt (je ein kpcs), die ecm zeiten waren mir noch immer zu hoch.. Mit diesem Prinzip sollte man 8+ karten haben um es unter ecm: 1.0 zu haben... (sids aufteilung).
Was aber gut gegangen ist, und wo ich endlich zufriden war::
*skyde karte je einem kpcs proces
*skyde newcamd protokol zu oscam (local)..reader loadbalance + cache
*skyde newcamd protokol zu kpcs (local).. reader loadbalance +cache
*skyde newcamd protokol zu csp (vps).. loadbalance + cache
einfach nach dem Motto mehr accaunts in kpcs.user mehr cache
Teste noch wen BL ist...
Es kommt mir vor er geht nach dem Motto faster reader first, was eigendlich keine gute sache ist, es wäre mir lieber older reader first...
Trotz kpcs.services kommen die ecm zeiten zu hoch..
Nach weiteren Tests habe ich die karten aufgeteilt (je ein kpcs), die ecm zeiten waren mir noch immer zu hoch.. Mit diesem Prinzip sollte man 8+ karten haben um es unter ecm: 1.0 zu haben... (sids aufteilung).
Was aber gut gegangen ist, und wo ich endlich zufriden war::
*skyde karte je einem kpcs proces
*skyde newcamd protokol zu oscam (local)..reader loadbalance + cache
*skyde newcamd protokol zu kpcs (local).. reader loadbalance +cache
*skyde newcamd protokol zu csp (vps).. loadbalance + cache
einfach nach dem Motto mehr accaunts in kpcs.user mehr cache
Teste noch wen BL ist...