Neuigkeiten
  • Die modified eCommerce Shopsoftware ist kostenlos, aber nicht umsonst.
    Spenden
  • Damit wir die modified eCommerce Shopsoftware auch zukünftig kostenlos anbieten können:
    Spenden
  • Thema: seltsame Zugriffe über "nicht vorhandene" URL

    Thomas M.

    • Fördermitglied
    • Beiträge: 196
    seltsame Zugriffe über "nicht vorhandene" URL
    am: 28. März 2017, 11:14:05
    Grüß euch,

    kann mir jemand verraten, was da abgeht?
    Die angegebene URL gibt es nicht, zumindest nicht, wenn ich sie im Browser aufrufe!

    Zitat
    /heavy_rubber/index.php?language=en%20UNION%20ALL%20SELECT%20NULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%2CNULL%23

    studiogum.com habe ich vorangestellt gehabt!

    Danke und Gruß aus Wien,
    Thomas

    Linkback: https://www.modified-shop.org/forum/index.php?topic=36981.0
    Trade Republic - Provisionsfrei Aktien handeln

    Timm

    • Fördermitglied
    • Beiträge: 6.260
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #1 am: 28. März 2017, 11:53:40
    Denke nicht, dass es in der Ukraine Suchmaschinenanbieter gibt ;)

    Einfach auf die Blacklist setzen.

    web28

    • modified Team
    • Beiträge: 9.404
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #2 am: 28. März 2017, 12:09:14
    Das sind Hackerangriffe.

    Schau mal in das log Verzeichnis, ob diese Angriffe erkannt wurden. (ab Shopversion 2.0)

    Gruss Web28

    Thomas M.

    • Fördermitglied
    • Beiträge: 196
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #3 am: 28. März 2017, 12:11:40
    Danke Web28, da bin ich jetzt aber beruhigt  :-o
    Ich hab wegen einiger notwendiger Zusatzfeatures und Zeitmangels noch nicht umgestellt  :datz: Kann/soll ich in der 1.06 Version irgenetwas machen?

    Gruß aus Wien,
    Thomas

    fishnet

    • Fördermitglied
    • Beiträge: 4.821
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #4 am: 28. März 2017, 12:17:55
    Wenn ich mal auch kurz meinen Senf dazugeben darf:
    Zitat
    Die angegebene URL gibt es nicht, zumindest nicht, wenn ich sie im Browser aufrufe!

    Bitte NIEMALS "komische" URLS die Euch als Herkunft URL angezeigt werden, aufrufen!!
    Das ist (wenn es kein Hackerangriff wie oben ist) häufig Referrer Spam oder auch der Versuch Euch auf eine virenverseuchte Seite zu locken!

    Thomas M.

    • Fördermitglied
    • Beiträge: 196
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #5 am: 28. März 2017, 12:21:24
    uuuups, Danke für die Info, fishnet!

    derheiko

    • Fördermitglied
    • Beiträge: 471
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #6 am: 29. März 2017, 10:55:39
    Hierbei handelt es sich für mich nicht über Referrer Scam, sondern ein Angriff auf den Shop.

    Mit dem /null/null/ und co versucht der "Hacker" entweder Verzeichnisse zu taggen oder andere Lücken auf dem Server damit zu öffnen. Zum Beispiel SQL Injection auslösen

    Ich weiß nicht bei welchem Hoster du bist. Bei mir - bei all-inkl kann ich zum Beispiel über die htaccess die Ip sperren.

    Code: PHP  [Auswählen]
    <Limit GET POST HEAD>
    order allow,deny

    deny from 1.2.3.4

    allow from all
    </Limit>

    Oder einfach nur

    Code: PHP  [Auswählen]
    <Limit GET POST HEAD>
    order allow,deny

    deny from 1.2

    allow from all
    </Limit>

    wenn du nen IP Kreis blocken möchtest.

    Alternativ das Land aussperren, wenn du eh nicht dahin lieferst:

    In diesem Beispiel sperre ich China und Russland aus:

    <IfModule mod_geoip.c>
    GeoIPEnable On
    SetEnvIf GEOIP_COUNTRY_CODE (CN|RU) BlockCountry
    Deny from env=BlockCountry
    </IfModule>

    Wenn du auf die Apache Logs zugriff hast, dann mal schauen mit welchen "User Agent" die kommen und die ggfls. blockieren:

    Hier mal ein Auszug meiner aktuellen:

    Code: PHP  [Auswählen]

    #====================================================================================================
    # Badbots blockieren [Letzte Aktualisierung: 14.03.2017]
    #====================================================================================================
    RewriteCond %{HTTP_USER_AGENT} Wotbox/2.01                                                       [OR]
    RewriteCond %{HTTP_USER_AGENT} MJ12bot/v1.4.5                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} Majestic-SEO                                                      [OR]
    RewriteCond %{HTTP_USER_AGENT} MJ12bot                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} SEOkicks-Robot                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} MegaIndex.ru/2.0                                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} SemrushBot/1~bl                                                   [OR]
    RewriteCond %{HTTP_USER_AGENT} SemrushBot/1.1~bl                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} GrapeshotCrawler/2.0                                              [OR]
    RewriteCond %{HTTP_USER_AGENT} seoscanners.net/1                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} Apache-HttpClient                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} DotBot/1.1                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} crawler.datenmarkt.de/Nutch-1.11                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} Java/1.7.0_79                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} AhrefsBot                                                         [OR]
    RewriteCond %{HTTP_USER_AGENT} ImplisenseBot                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} GetintentCrawler                                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} OFM                                                               [OR]
    RewriteCond %{HTTP_USER_AGENT} finbot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} Exabot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} proximic                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} linkdexbot                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} BLEXBot                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} spbot                                                             [OR]
    RewriteCond %{HTTP_USER_AGENT} SMTBot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} Searchie                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} Plukkie                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} MetaJobBot                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} sSearch                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} WBSearchBot                                                       [OR]
    RewriteCond %{HTTP_USER_AGENT} c7.seokicks.de                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} TwengaBot-2.0                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} Cliqzbot/0.1                                                      [OR]
    RewriteCond %{HTTP_USER_AGENT} Cliqzbot                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} SISTRIX
    RewriteRule ^ - [F,L]

    web28

    • modified Team
    • Beiträge: 9.404
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #7 am: 29. März 2017, 11:53:03
    Man sollte überlegen, die xss_secure Funktionen aus dem 2.0 in den 1.06 einzubauen.

    Bei Interresse bitte bei mir melden.

    Bei einem 2.0 Shop wäre dieser wohl Thread gar nicht erst entstanden.

    Gruss Web28

    Thomas M.

    • Fördermitglied
    • Beiträge: 196
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #8 am: 29. März 2017, 11:57:53
    ich werde sehr bald auf 2.0 umstellen, gestern habe ich mit meinem Chef das Projekt Multishop zu Fall gebracht, damit ist das größte "Problem" beseitigt!

    Gruß aus Wien,
    Thomas

    vr

    • modified Team
    • Beiträge: 2.664
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #9 am: 04. April 2017, 23:42:59
    Hallo,

    da das zur Zeit verstärkt vorkommt, aus verschiedenen Ländern:

    das sind SQL-Angriffe. Interne Abfragen des shops werden durch das übergebene SQL so ergänzt, dass die Angreifer interne Daten des shops angezeigt bekommen, je nachdem, wie der shop konfiguriert ist. Diese URLs nicht im Browser ausführen. Im besten Fall seht ihr dabei nämlich, dass ihr bei einem Live-Shop vergessen habt, die Fehlerausgabe abzuschalten.

    1. checkt das /export-Verzeichnis. Dort sollten keine _error_reporting.all oder _error_reporting.dev stehen. Checkt die admin-Mails, ob Datenbankfehler berichtet wurden.

    2. so eine URL könnt ihr euch bei Interesse zb in notepad++ ansehen, dort gibt es eine Funktion, um URL-kodierte Texte in was lesbares umzuwandeln (Erweiterungen/MME Tools/URL Decode)

    Die URL von Thomas ist das hier
    /index.php?language=en UNION ALL SELECT NULL,NULL,NULL,NULL,NULL,NULL,NULL#

    die können auch so aussehen, das sind timing-Angriffe
    /shop_content.php?coID=11' AND BENCHMARK(2999999,MD5(NOW())) AND '1
    /shop_content.php?coID=11 '||SLEEP(3)&&'1

    Selbst wenn man kein SQL kann, sieht man, dass das keine regulären Aufrufe sind, sondern Angriffe.

    3. Sperren. Manuell ein mühsames Geschäft. Ganze Länder zu sperren bringt es nicht, die meisten Angriffe sehe ich aus USA und nicht aus China oder Russland. Ihr könnt natürlich alles außer DE, AT, CH sperren, dann habt ihr ziemlich Ruhe, das wäre die Nordkorea-Variante. ;-)

    4. User-Agent sperren geht auch schlecht. Einige Bots ja, aber ein User-Agent lässt sich fälschen oder es ist ein x-beliebiger regulärer Browser. So ein Angriff wie der von Thomas berichtete kam über Mozilla/5.0 (X11; U; Linux i686; en-US) AppleWebKit/532.2 (KHTML, like Gecko) Chrome/4.0.221.0 Safari/532.2, also vermutlich Firefox o.ä. auf Linux-Rechner.

    LG Volker

    awids

    • Experte
    • Beiträge: 3.803
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #10 am: 05. April 2017, 01:00:24
    3. Sperren. Manuell ein mühsames Geschäft. Ganze Länder zu sperren bringt es nicht, die meisten Angriffe sehe ich aus USA und nicht aus China oder Russland. Ihr könnt natürlich alles außer DE, AT, CH sperren, dann habt ihr ziemlich Ruhe, das wäre die Nordkorea-Variante. ;)

    Hier sei erwähnt - auch wenn es nicht zum eigentlichen Thema gehört - dass ihr euch keinen Gefallen tut, wenn ihr die USA pauschal aussperrt. :-) Denn drei Mal dürft ihr raten, von wo der Google-Bot gesteuert wird.  :!: Habe das letztens in einem Shop erlebt, wo mir ein Kunde völlig verzweifelt erklärt hat, dass er bei Google Webmaster-Tools lauter Meldungen bekommen hätte, dass seine Seiten nicht mehr indexiert werden und in den Fehlermeldungen stand, dass die "Einstellungen nicht mit den Google-Richtlinien konform seien oder der Zugriff nicht gestattet sei". Ich glaube, ich habe fast einen ganzen Tag gebraucht, ehe mir in der .htaccess die Ländersperre ins Auge stach.  :datz: Nachdem ich den Ländereintrag entfernt hatte, ging es auch wieder.

    Timm

    • Fördermitglied
    • Beiträge: 6.260
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #11 am: 05. April 2017, 10:26:01
    1. checkt das /export-Verzeichnis. Dort sollten keine _error_reporting.all oder _error_reporting.dev stehen. Checkt die admin-Mails, ob Datenbankfehler berichtet wurden.

    LG Volker

    Hallo

    Eine _error_reporting.admin darf aber vorhanden sein, oder?

    Wo findet man die admin-Mails und worauf genau sollte man achten?

    Besteht ein Sicherheitsrisiko für den Shop durch diese Anfragen, solange man die Zeilen nicht selbst im Browser aufruft?

    Gruß Timm

    Andreas Kroll

    • Fördermitglied
    • Beiträge: 249
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #12 am: 05. April 2017, 16:39:31
    Hallo an alle Fachleute.

    Da auch bei mir so komische Urls abgerufen werden habe ich meine .htaccess wie folgt geändert:
    Code: PHP  [Auswählen]
    ##-- $Id: _.htaccess 10191 2016-08-02 10:40:18Z Tomcraft $

    ##-- Default charset
    AddDefaultCharset UTF-8
    #AddDefaultCharset ISO-8859-15

    ##-- Disable the server signature
    ServerSignature Off

    ##-- Turn off ETags in HTTP-header (use both directives)
    <IfModule mod_headers.c>
      Header unset ETag
      RequestHeader unset Proxy
    </IfModule>
    FileETag None

    ##-- When caching of gzipped JS and CSS files is used, enable this setting
    <IfModule mod_headers.c>
      Header set Vary Accept-Encoding
    </IfModule>

    ##-- when using Provider 1&1 set the following lines to activate PHP5
    #AddType x-mapp-php5 .php
    #AddHandler x-mapp-php5 .php

    # Disable directory browsing (disabled by default as this causes problems on some servers)
    #Options All -Indexes

    ##-- Enable the compression for any type of content
    <IfModule mod_deflate.c>
      <FilesMatch "\\.(js|css|html|htm|php|xml|jpg|jpeg|png|gif|svg|woff)$">
        SetOutputFilter DEFLATE
      </FilesMatch>
    </IfModule>

    ##-- Customization of HTTP request and response headers
    <IfModule mod_headers.c>
      <FilesMatch "\\.(ico|jpe?g|png|gif|swf|flv|svg)$">
        Header set Cache-Control "max-age=2592000, public"
      </FilesMatch>
      <FilesMatch "\\.(css|woff)$">
        Header set Cache-Control "max-age=604800, public"
      </FilesMatch>
      <FilesMatch "\\.(js)$">
        Header set Cache-Control "max-age=604800, private"
      </FilesMatch>
      <FilesMatch "\\.(xml|txt)$">
        Header set Cache-Control "max-age=604800, public, must-revalidate"
      </FilesMatch>
      <FilesMatch "\\.(html|htm|php)$">
        Header set Cache-Control "max-age=1, private, must-revalidate"
      </FilesMatch>
    </IfModule>

    ##-- Generation of Expires and Cache-Control HTTP headers
    <IfModule mod_expires.c>
      ExpiresActive On
      ExpiresDefault "access plus 1 seconds"
      ExpiresByType image/gif "access plus 2592000 seconds"
      ExpiresByType image/jpg "access plus 2592000 seconds"
      ExpiresByType image/jpeg "access plus 2592000 seconds"
      ExpiresByType image/png "access plus 2592000 seconds"
      ExpiresByType image/svg+xml "access plus 2592000 seconds"
      ExpiresByType text/html "access plus 1 seconds"
      ExpiresByType text/css "access plus 604800 seconds"
      ExpiresByType text/javascript "access plus 604800 seconds"
      ExpiresByType application/x-javascript "access plus 604800 seconds"
      ExpiresByType application/javascript "access plus 604800 seconds"
      ExpiresByType text/x-component "access plus 604800 seconds"
      ExpiresByType application/font-woff "access plus 604800 seconds"
      ExpiresByType image/x-icon "access plus 604800 seconds"

      <IfModule mod_headers.c>
        Header append Cache-Control "public"
      </IfModule>
    </IfModule>

    ##-- Configure php_flags if necessary
    ##-- BEGIN - use IfModule clause if PHP runs in CGI mode, otherwise just uncomment the lines with php_flag...
    <IfModule mod_php.c>

      ##-- Warn when arguments are passed by reference at function call time (from PHP5 allow_call_time_pass_reference is deprecated)
     #php_flag allow_call_time_pass_reference on

      ##-- Disable transparent sid support PHP-default is off (XTC Session only on first visit)
     php_flag session.use_trans_sid off

      ##-- set suhosin flags because of errors with attributes (for webhosters with suhosin hardening patch enabled)
     #php_value suhosin.post.max_array_depth 0
     #php_value suhosin.post.max_array_index_length 0
     #php_value suhosin.post.max_vars 0
     #php_value suhosin.request.max_array_depth 0
     #php_value suhosin.request.max_array_index_length 0
     #php_value suhosin.request.max_vars 0

      ##-- set suhosin flags to have unencrypted session data, affecting "whos_online" & "shopping cart" (for webhosters with suhosin hardening patch enabled)patch enabled
     #php_value suhosin.session.encrypt Off
     #php_value suhosin.session.cryptkey ''

    ##-- END - use IfModule clause if PHP runs in CGI mode, otherwise just uncomment the lines with php_flag...
    </IfModule>

    ##-- Redirect error pages to Sitemap
    ##-- set the correct Path to ErrorDocument
    ErrorDocument 400 /sitemap.html?error=400
    ErrorDocument 401 /sitemap.html?error=401
    ErrorDocument 402 /sitemap.html?error=402
    ErrorDocument 403 /sitemap.html?error=403
    ErrorDocument 404 /sitemap.html?error=404
    ErrorDocument 500 /sitemap.html?error=500

    <IfModule mod_geoip.c>
    GeoIPEnable On
    SetEnvIf GEOIP_COUNTRY_CODE (CN|RU) BlockCountry
    Deny from env=BlockCountry
    </IfModule>

    ##-----------------------------------------
    ##- SEO Shopstat Modul (Hartmut Koenig)
    ##-----------------------------------------
    <IfModule mod_rewrite.c>
      ##-- Initialize and enable rewrite engine
     ##-- Documentation http://httpd.apache.org/docs/misc/rewriteguide.html
     RewriteEngine On
    #====================================================================================================
    # Badbots blockieren [Letzte Aktualisierung: 14.03.2017]
    #====================================================================================================
    RewriteCond %{HTTP_USER_AGENT} Wotbox/2.01                                                       [OR]
    RewriteCond %{HTTP_USER_AGENT} MJ12bot/v1.4.5                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} Majestic-SEO                                                      [OR]
    RewriteCond %{HTTP_USER_AGENT} MJ12bot                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} SEOkicks-Robot                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} MegaIndex.ru/2.0                                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} SemrushBot/1~bl                                                   [OR]
    RewriteCond %{HTTP_USER_AGENT} SemrushBot/1.1~bl                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} GrapeshotCrawler/2.0                                              [OR]
    RewriteCond %{HTTP_USER_AGENT} seoscanners.net/1                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} Apache-HttpClient                                                 [OR]
    RewriteCond %{HTTP_USER_AGENT} DotBot/1.1                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} crawler.datenmarkt.de/Nutch-1.11                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} Java/1.7.0_79                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} AhrefsBot                                                         [OR]
    RewriteCond %{HTTP_USER_AGENT} ImplisenseBot                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} GetintentCrawler                                                  [OR]
    RewriteCond %{HTTP_USER_AGENT} OFM                                                               [OR]
    RewriteCond %{HTTP_USER_AGENT} finbot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} Exabot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} proximic                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} linkdexbot                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} BLEXBot                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} spbot                                                             [OR]
    RewriteCond %{HTTP_USER_AGENT} SMTBot                                                            [OR]
    RewriteCond %{HTTP_USER_AGENT} Searchie                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} Plukkie                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} MetaJobBot                                                        [OR]
    RewriteCond %{HTTP_USER_AGENT} sSearch                                                           [OR]
    RewriteCond %{HTTP_USER_AGENT} WBSearchBot                                                       [OR]
    RewriteCond %{HTTP_USER_AGENT} c7.seokicks.de                                                    [OR]
    RewriteCond %{HTTP_USER_AGENT} TwengaBot-2.0                                                     [OR]
    RewriteCond %{HTTP_USER_AGENT} Cliqzbot/0.1                                                      [OR]
    RewriteCond %{HTTP_USER_AGENT} Cliqzbot                                                          [OR]
    RewriteCond %{HTTP_USER_AGENT} SISTRIX
    RewriteRule ^ - [F,L]

      ##-- EXAMPLE: If your shop is located at "http://www.yourdomain.com/shop",
     ##-- set the following line like e.g.: RewriteBase /shop/
     RewriteBase /

      ##-- disallow access to dotfiles (.htaccess, .svn, .git, etc.)
     #RedirectMatch 403 /\.

      ##-- Use canonical URLs
     ##-- Use SSL-Proxy
     ##-- HostEurope
     #RewriteCond %{HTTP:X-Forwarded-Server}   !^ssl\.webpack\.de$ [NC]
     ##-- 1und1
     #RewriteCond %{HTTP:X-Forwarded-Server}   !^ssl\.kundenserver\.de$ [NC]
     ##-- domainFACTORY
     #RewriteCond %{HTTP:X-Forwarded-Server}   !^sslsites\.de$ [NC]
     ##-- All-Inkl
     #RewriteCond %{HTTP:X-Forwarded-Server}   !^ssl-account\.com$ [NC]
     ##-- Strato
     #RewriteCond %{HTTP:X-Forwarded-Server}   !^www\.ssl-id\.de$ [NC]

      ##-- redirect to http www-domain, when www is missing and no subdomain given and not using an ssl-proxy
     #RewriteCond %{HTTP_HOST}                 !^www\. [NC]
     #RewriteCond %{HTTP_HOST}                 !\.(.*)\. [NC]
     #RewriteCond %{HTTP_HOST}                 !^localhost [NC]
     #RewriteRule ^ http://www.%{HTTP_HOST}%{REQUEST_URI} [R=301,L]

      ##-- redirect to https www-domain, when www is missing and no subdomain given and not using an ssl-proxy
     RewriteCond %{HTTP_HOST}                 !^www\. [NC]
      RewriteCond %{HTTP_HOST}                 !\.(.*)\. [NC]
      RewriteCond %{HTTP_HOST}                 !^localhost [NC]
      RewriteRule ^ https://www.%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
      RewriteCond %{HTTPS} off
      RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]

      ##-- Sitemap
     RewriteRule ^sitemap(.*)\.html$ shop_content.php?coID=8 [QSA,L]

      ##----------------------------------------------------------------------------------
     ##-- When working with SEO-Urls you can decide, whether to use a colon ":" or a dash "-" symbol
     ##-- (Windows Servers might have problems with colon as delimiter!)
     ##-- Change the delimiter symbol also in file "/inc/shopstat_functions.inc.php"
     ##----------------------------------------------------------------------------------

      ##-- Use colon delimiter ":" for SEO-URLS (default setting)
     ##-- Categories (:::)
     RewriteRule :::([_0-9]+):([_0-9]+)\.html$ index.php?cPath=$1&page=$2 [QSA,L]
      RewriteRule :::([_0-9]+)\.html$ index.php?cPath=$1 [QSA,L]

      ##-- Products (::)
     RewriteRule ::(.+)\.html$ product_info.php?products_id=$1 [QSA,L]

      ##-- Content (:_:)
     RewriteRule :_:([0-9]+)\.html$ shop_content.php?coID=$1 [QSA,L]

      ##-- Manufacturers (:.:)
     RewriteRule :.:([_0-9]+):([_0-9]+)\.html$ index.php?manufacturers_id=$1&page=$2 [QSA,L]
      RewriteRule :.:([0-9]+)\.html$ index.php?manufacturers_id=$1 [QSA,L]

      ##-- Use dash delimiter "-" for SEO-URLS (alternative setting i.e. for windows servers)
     ##-- Categories (---)
     RewriteRule ---([_0-9]+)-([_0-9]+)\.html$ index.php?cPath=$1&page=$2 [QSA,L]
      RewriteRule ---([_0-9]+)\.html$ index.php?cPath=$1 [QSA,L]

      ##-- Products (--)
     RewriteRule --(.+)\.html$ product_info.php?products_id=$1 [QSA,L]

      ##-- Content (-_-)
     RewriteRule -_-([0-9]+)\.html$ shop_content.php?coID=$1 [QSA,L]

      ##-- Manufacturers (-.-)
     RewriteRule -.-([_0-9]+)-([_0-9]+)\.html$ index.php?manufacturers_id=$1&page=$2 [QSA,L]
      RewriteRule -.-([0-9]+)\.html$ index.php?manufacturers_id=$1 [QSA,L]
    </IfModule>

    Kann ich das so lassen oder fällt jemandem von euch ein dirkter Fehler auf?

    Vielen Dank im voraus für die Unterstützung
    Andreas

    abbas1

    • Fördermitglied
    • Beiträge: 37
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #13 am: 08. Februar 2019, 20:31:57
    Moin Moiun,

    wenn ich

    <IfModule mod_geoip.c>
    GeoIPEnable On
    SetEnvIf GEOIP_COUNTRY_CODE (CN|RU) BlockCountry
    Deny from env=BlockCountry
    </IfModule>

    in die
    .htaccess
    schreibe

    einfüge im 2.0
    kommen dennoch die IP von China durch.

    Woran mag das liegen?

    Ps. In welche .htaccess Datei muss man das einbauen. es gibt so viele  :-)

    abbas1

    • Fördermitglied
    • Beiträge: 37
    • Geschlecht:
    Re: seltsame Zugriffe über "nicht vorhandene" URL
    Antwort #14 am: 08. Februar 2019, 22:08:19
    Gerade nachgesehen bei Strato:"Auf der STRATO Plattform selbst gibt es kein Geoblocking. Wenn Sie also ein STRATO Hosting-Paket oder einen Server besitzen, ist Ihre Website für jeden Besucher auf der Welt erreichbar.
    Wenn Sie allerdings selbst technische Maßnahmen ergriffen haben, um IP-Adressen aus anderen Ländern zu blockieren, sind Sie selbst in der Verantwortung, rechtskonform zu sein."

    Bedeutet das in diesem Fall, dass
    <IfModule mod_geoip.c>
    GeoIPEnable On
    SetEnvIf GEOIP_COUNTRY_CODE (CN|RU) BlockCountry
    Deny from env=BlockCountry
    </IfModule>

    Nicht greift?