[Informatique] aspirer un site ?

Au cas où il y aurait des concepteurs web de génie :bom:

Pour aspirer un site web, j’utilise WinHTTrack Website Copier. Avec WinHTTrack Website Copier, c’est merveilleux, plus de poussière sur mon internet !

Trêve de plaisanteries, je ne maîtrise pas les options. Je voudrais aspirer le site Kartable.fr, ou au moins une petite partie pour tester, par exemple: cette page du cours de maths.

Le problème: la copie locale ne s’affiche pas correctement. Si on va dans le code source de la page, on voit qu’elle fait appel à des commandes (probablement LaTeX), comme par exemple \displaystyle{}, qui met en forme le style. Au lieu d’avoir le style, j’ai sur ma copie locale des \displaystyle{} de partout.

Est-ce que quelqu’un saurait comment ça fonctionne ? je ne sais pas où sont stockés ces scripts. Ou mieux, comment les récupérer !

J’ai jeté un oeil vite fait.
Y a un script qui semble venir de « l’extérieur », en gros d’un serveur autre que celui de ta page :

C’est fréquent et normal, mais souvent, les aspirateurs, ça les fait déconner.
Pour contrer ça, tu peux enregistrer en local la page MathJax citée plus haut, et modifier tes pages pour qu’elles pointent vers cette copie locale.

C’est bien un truc de nana ça de vouloir aspirer un site :tronço:

ok je sors …

Merci Gulix :cheers: , j’ai pensé qu’après d’aller mater les entêtes :bulb:

Mais logiquement, la copie locale n’aurait-elle pas dû appeler le script de la page internet ? ou c’est l’aspirateur qui était bouché ?
bon, tfaçon je regarderai quand j’aurai du temps :study:

j’adore :cheers:

sinon, moi pour aspirer un site, j’utilise ça :

:lol!: :lol!: :lol!: