Je dois passer beaucoup de temps et d'énergie à la transplantation et à la mise à niveau et que des codes cachés quelque part enterrés. J'estime que Python évite également ce problème (en fait, ce type de son est survenu, tel que "Python 3 détruit Python").
Mais j'ai toujours lancé ce projet Network Metwork Instank Network. J'utilise C ++, Java et JavaScript pour écrire des programmes liés aux reptiles depuis plus de 10 ans. Pour poursuivre des performances élevées, non C ++, disposez d'un système standard parfait, laissez-vous et votre système très confiant, tant que vous vérifiez complètement, vous pouvez suivre des méthodes actives dynamiques attendues. Dans le projet GOOSeeker, nous continuons de travailler dans une direction - «Données de récolte» et de la plupart des utilisateurs (non seulement les utilisateurs de la collecte de données professionnels) peuvent faire l'expérience de la récolte amusante Internet. Une sensation importante de «récolte» est une grande quantité. Maintenant, je veux lancer immédiatement "Reptile Network",Le but de l'ajout de "récolte" sans assurance, je vois:
Au niveau du système: "Instant" représente le système d'application de données de déploiement rapide
dans le flux de données de surface: "Instant" représente les données d'acquisition avec des données est instantanée, un seul objet de données peut être traité dans le flux complet, n'attendez pas d'un groupe de dépôt dans la base de données, puis de l'écarter de la base de données
"immédiatement" "immédiatement" que le reptile Mise entier est un module embarqué,intégré à l'ensemble du système de traitement de l'information
Les programmeurs qui jouent à Reptile Network Python, j'ai développé un plan: configurer un composant logiciel de module, dédié au problème d'extraction de contenu le plus efficace (quelqu'un Résumé que des données importantes et des données de données de l'ensemble de la chaîne, des données sont prêtes à représenter 80% du travail, nous voudrons peut-être retirer, capture de données de réseau 80% de la charge de travail écrit des règles de Grab pour différentes structures de données de TranG Web différent). Je l'imagine dans une petite machine (voir la photo ci-dessous), entré le site Web d'origine, la sortie est le contenu structuré extrait, cette petite machine dispose d'un composant de remplacement: Basculer dans Intoput dans Intoput le bloc de structure de sortie, nous devenons un "extrait ", afin que les gens ne souffrent plus de déboguer l'expression ordinaire ou xpath.
Il s'agit d'un projet ouvert, lancé un projet de reptiles de réseau immédiatement sur les téléphones mobiles il y a deux ans, car c'est pour développer un groupe d'entreprises, de sorte que le tour d'ouverture, la même idée et la même méthode seront ouverts. Dans ce projet, et en utilisant le Python le plus chaud présent à faire, j'espère que tout le monde peut se joindre à. Dans le processus de mise en œuvre, nous ouvrirons tous les documents et résultats, et les trous rencontrés.