Question

J'ai un objet source de données qui va renvoyer une collection potentiellement volumineuse (jusqu'à 200 000 enregistrements) qui sont liés et paginés dans un gridview. J'utilise la pagination et la mise en cache par défaut sur objectdatasource. Les données renvoyées ne sont mises à jour que toutes les semaines, donc les données obsolètes ne sont pas un problème. La pagination dans cette solution était également plus rapide que lorsque j'ai créé une solution à l'aide de la pagination personnalisée.

Mes questions sont les suivantes: la mise en cache d’un ensemble d’enregistrements de cette taille est-elle acceptable pour vous? Sinon pourquoi? Utilisez-vous des compteurs de performance pour voir l'impact sur la mémoire créé par vos données en cache?

Merci!

Était-ce utile?

La solution

pour répondre à vos questions:

1) Oui, la mise en cache d'un ensemble de données volumineux est correcte. Particulary est de générer le jeu de données est plus cher que la mise en cache. De plus, comme il s’agit de données relativement statiques, cela en fait un bon candidat.
2) En ce qui concerne les compteurs de performance, cela dépend en quelque sorte du mécanisme de mise en cache que vous utilisez. Si vous utilisez par exemple le bloc de mise en cache de Enterprise Librarie, celui-ci a des compteurs intégrés. Quant aux compteurs généraux, surveillez les compteurs de mémoire, le jeu de travail, les octets privés, etc.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top