Info: Les Addons ne sont plus disponibles sur Chrome Store parce que je les ai désactivés, en effet, google va rendre obligatoire de passer les addons au manifest V3 (https://developer.chrome.com/docs/extensions/mv3/mv3-migration-checklist/) au prétexte de la sécurité mais en fait ca empêche les addons de fonctionner en ne changeant que quelques syntaxes dans les fonctions mais ca rend tres difficile et couteux en terme de temps à mettre à jour.

J'ai autre chose à faire que de passer mon temps à updater mon addon pour m'adapter aux mises à jours pseudo sécuritaires qui ne servent en réalité qu'a limiter les fonctionnalités bien utiles des addons comme avec Firefox et a empêcher l'utilisateur d'avoir les fonctionnalités qu'il veut si google n'est pas d'accord.

Il y aussi le probleme des sites d'archives qui ne veulent pas que ca fonctionne on dirait une vitrine publicitaire pour leur faire des dons et c'est tout, archive.org ne permet pas de sauver des pages en bulk, il faut passer par leur page web à chaque fois, archive.is est de pire en pire au début ou je l'utilisais il sauvait les pages complexes comme google map, les pdf, il permettait de charger les pages en zio mais depuis plus d'un an, rien de tout ca ne fonctionne, il ne charge même pas les zip ou fichiers video des pages webs directs en lien en mp4, etc... 

Quand on veut sauver plusieurs pages web il faut attendre 5mn entre chaque sinon on est bloqué, sérieusement, j'ai fait un sitemap de whale.to, avec des dizaines de milliers de pages, comment on le sauve sur ces sites parce que nombre de pages de whale.to sur le web depuis presque le début ne sont toujours pas sauvées sur archive.org qui pourtant prétend être la mémoire d'internet !

Ils n'ont pas d'options (même payantes!) pour charger des centaines de milliers d'urls ou voir un site en entier, ou pour mettre à jour automatiquement les pages, bref, je n'ai plus aucune envie d'avoir affaire avec tout ca, c'est tous le temps des problemes des qu'on veut utiliser leur site. Archive.is a même mis j'ai déjà eu le cas un captcha sur leur api alors que c'es typiquement les api faites pour les requetes par programmes / robots: http://mementoweb.org/depot/native/archiveis/

Le site archive.org prétend avoir une API qui permet de sauver les page par une requete mais en fait c'est erreur 502 à chaque fois : https://pragma.archivelab.org/ ; https://github.com/ArchiveLabs/

Le comble du comble, sur ce site on trouve une api faite pour sauver les pages web en un clique: https://robustlinks.mementoweb.org/api-docs/

Ca lance l'archivage de la page sur le site qu'on veut et retourne l'url de la page sauvée, j'ai voulu utiliser ca pour mon addon et bien ca ne fonctionne pas, archive.is renvoie du 502 à tour de bras et archive.org pareil, des erreurs des qu'on  l'utilise plus de quelque fois, bref ca ne sert à rien du tout par rapport à leur page web classique. Et il est même dit en bas de la page qu'il ne faut pas l'utiliser pour créert de nouvelles sauvegardes ou acquérir des infos sur une sauvegarde alors que c'est justement les seuls fonctionnalités qu'offrent cette API :

"4. Discouraged Use Cases

We intend for machine clients to employ the Robust Links API to create Robust Links and return the corresponding HTML. Because of the functionality provided by this API, users may be tempted to employ it for purposes we did not intend. In this section, we outline some of the potential use cases we want to discourage when using the API.

Creating New Mementos

If a machine client submits an original resource URL, the Robust Links API creates a Memento. This is a convenience feature provided to help users quickly automate the replacement of existing links. If a machine client wishes to to create new Mementos from original resources explicitly, then tools like ArchiveNow perform this action with more features and without all of the additional overhead.

Acquring Memento Information

The Robust Links API provides the original resource URL (in data-originalurl) associated with the Memento URL. It also identifies a resource as a Memento or original resource. If a machine client needs this information explicitly, then the Robust Links API provides unnecessary overhead. Instead, a machine client should directly query the Memento by employing the Memento Protocol. The py-memento-client Python library can help developers do this with Python applications."

 

 

Je ne parle même pas de megalodon, qui généralement refuse de sauver la page, là aussi plus de quelques pages sauvées et on est accusé de trop l'utiliser, ou alors le site a sauver est indiqué comme interdit, etc, bref toujours un bon prétexte pour refuser le service prétendument offert par ces sites de sauvegarde.

Bref, autant sauver les pages directement sur votre PC avec un logiciel qui fait un téléchargement des sites complets et voilà.

J'ai essayé de remplacer l'addon par un simple application windows mais là aussi, même pour des choses aussi simples, toujours des problemes, archive.today empeche les requetes depuis les applications, apparemment ils détectent que c'est pas un navigateur, simplement de vouloir charger une de leur page d'archive comme  "http://archive.today/http://www.nomdudomaine/page.html" ,  et ca indique trop de connexions à chaque fois alors que j'ai essayé meme juste apres de lancer une page du site dans le navigateur depuis le même ordinateur donc la même connexion et ca marchait tres bien...

Et comble du comble, j'ai ensuite voulu faire une page html téléchargeable en local fonctionnant comme l'addon, on indique une liste d'urls à charger et on choisit les archivers et bien non, là aussi pour une simpte requete passant par la fonction fetch prévue pour ca, pour faire des simples requetes internet comme la doc des navigateurs l'indique, ca ne fonctionne pas, ca demande des sortes d'autorisations parce c'est un autre domaine !

 

Utiliser Fetch

L'API Fetch fournit une interface JavaScript pour l'accès et la manipulation des parties de la pipeline HTTP, comme les requêtes et les réponses. Cela fournit aussi une méthode globale fetch() qui procure un moyen facile et logique de récupérer des ressources à travers le réseau de manière asynchrone.

https://developer.mozilla.org

https://developer.mozilla.org/docs/Web/API/Fetch_API/Using_Fetch 



Cross-origin resource sharing (CORS)

Le " Cross-origin resource sharing " (CORS) ou " partage des ressources entre origines multiples " (en français, moins usité) est un mécanisme qui consiste à ajouter des en-têtes HTTP afin de permettre à un agent utilisateur d'accéder à des ressources d'un serveur situé sur une autre origine que le site courant.

https://developer.mozilla.org



Fichtre, maintenant pour accéder à un domaine internet, même une simple page web il faut des sortes d'autorisation spéciales alors qu'a là base internet et tout de même prévu pour ca!

J'ai pas trouvé comment facilement résoudre ce probleme et je n'ai plus aucune envie d'y passer des heures et des jours pour que quelques temps plus tard cette fonctionnalité soient supprimée au prétexte de mise à jour et de sécurité.

 

Entre autre probleme, archive.today ne sauve plus les PDF (il le faisait mais à changé, ce fut les pdf uniquement déjà dans le cache de google et maintenant c'est que la page apercu d'une partie du pdf et pas tout le document), il ne sauve plus non plus les pages web 2.0 comme google maps, avant il le faisait mais à un moment donné il ne le faisais plus sans raison, la fonction de charger en zip la page toujours indiquée ne fonctionne plus depuis des lustres, bientot ca sera la fonction de sauver les simples pages web qui sera désactivée et ils se demanderont pourquoi plus personne n'utilise leur site ?!

Pareil pour archive.org, au début c'était bien, et déjà depuis qq années qu'ils ont fait apparaitre dans les archives les noms de uploaders comme des comptes, et bien ils se permettent de supprimer du contenu à tour de bras, mon compte a été désactivé sans raison, tout supprimé, alors que je l'utilisais peu, j'avais simplement fait des sauvegardes du site textfiles et sans explications tout les éléments de mon compte ont été désactivés. J'ai essayé de me réinscrire, ca m'indique tout de suite que mon email est refusé (simplement d'avoir indiqué un email) parce que ca ne leur parait pas un bon email, je ne sais plus les termes exactes mais c'était ca ! Alors que mon premier compte était mon vrai nom et prénom, ca ne leur convenait pas non plus, je trouve un email qui va et hop a peine la vidéo uploadée que c'est refusé.

Bref ils ne font que mentir sur ce qu'ils prétendent faire (sauver internet) et passent le plus clair de leur temps à refuser qu'on upload du contenu tout en préparant leur prochaine campagne de dons mensongere ou ils se feront passer pour les garant de la mémoire d'internet !

Celui qui fait ce site d'archivage de vidéos dont beaucoup ont déjà été supprimée ("troo.tube") http://s3.wasabisys.com/public-videos/index.html disait dans une vidéo sur son compte youtube que archive.org avait refusé ses vidéos alors que de ces vidéos ont déjà pour beaucoup été supprimées de Youtube et internet...

Et oui, ce mêmes ensuite demanderont plein de dons en ce faisant passer pour les garants de la mémoire d'internet alors que c'est que du vent.

Aucun grand site d'archive ne fait réellement ce pourquoi il est fait, que le minimum pour pouvoir demander des dons.