Dies ist die Windows-Anwendung RobotsDisallowed, deren neueste Version als RobotsDisallowedsourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie die App „RobotsDisallowed with OnWorks“ kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
Roboter verboten
BESCHREIBUNG:
RobotsDisallowed ist ein öffentlicher Katalog, der Websites und Organisationen erfasst, die KI- und Web-Scraping-Crawler explizit in ihrer robots.txt-Datei oder ähnlichen Mechanismen blockieren. Er dokumentiert den wachsenden Trend, dass Content-Inhaber die Kontrolle darüber behalten, wie ihre Daten für das Modelltraining und die automatisierte Datenerfassung verwendet werden. Das Projekt aggregiert Domains, erfasst die betroffenen Bots oder User-Agents und stellt Muster für Forschende, politische Entscheidungsträger und Tool-Entwickler dar. Es dient sowohl der Transparenz als auch als Ressource für die Entwicklung von Strategien zur Zulassung bzw. Verweigerung des automatisierten Zugriffs. Die Community ist eingeladen, Beiträge zum Datensatz zu leisten, um ihn angesichts neuer Bots und sich ändernder Richtlinien aktuell zu halten. Darüber hinaus beleuchtet er die Schnittstelle von Webstandards, Ethik und KI-Governance, indem er zeigt, wie Website-Inhaber Zustimmung und Einschränkung in großem Umfang umsetzen.
Eigenschaften
- Kuratierte Liste von Domains, die KI- oder Scraping-Bots nicht zulassen
- Identifizierung gezielter Benutzeragenten und Blockierungsmuster
- Von der Community aktualisierter Datensatz, der die Richtlinienänderungen widerspiegelt
- Referenz für Forscher und Entwickler von Crawling-fähigen Tools
- Momentaufnahme der sich wandelnden Normen in Bezug auf Datennutzung und Einwilligung
- Leichtes Format für Analyse und Wiederverwendung
Kategorien
Diese Anwendung kann auch unter https://sourceforge.net/projects/robotsdisallowed.mirror/ heruntergeladen werden. Sie wird auf OnWorks gehostet, um die Online-Ausführung über eines unserer kostenlosen Betriebssysteme zu vereinfachen.