Sample Page

שלום לכולם

כפי שידוע לכם יש לנו כבר מספר חודשים בעיה עם סריקת האתרים שיושבים ב WEB3CLOUD על ידי GOOGLE

חיברתי אתמול כלי שיש לו 14 ימי ניסיון לסריקת האתרים ושנקבל דוח.

אני קובע פגישת זום דחופה מאוד ליום חמישי עם כל מי שרלוונטי כדי שנעבור על הנתונים.

כל מי שיכול לשפוך אור על הנושא מוזמן להגיב כדי לנסות להביא פתרון…

 

נתונים עד כה:

מכיוון שיש לנו שליטה על מולטי סייט NET הנתונים הבאים מתבססים עליה:

1.בחודש האחרון אף אתר במערכת לא נסרק על ידי גוגל ניתן לראות את זה פה:

https://www.google.com/search?q=site:net.technion.ac.il&sca_esv=0aade082d29507cb&rlz=1C1GCEA_enIL1046IL1046&sxsrf=ACQVn08yiGG4BajN5tSI2cWlc6KX38mIeQ:1709535846666&source=lnt&tbs=qdr:m&sa=X&ved=2ahUKEwig4vumhdqEAxXISvEDHQSwBYcQpwV6BAgBEA8&biw=1920&bih=911&dpr=1

2.מזה מספר חודשים חלה ירידה משמעותית באתרים שנסרקו שימו לב בתמונה הזו. דפים מתוך האתר של פרופסור קשת. רואים בבירור את הירידה בדפים הירוקים שאלו הדפים שגוגל מצליח לאנדקס במנוע החיפוש מול כל מה שהיה באתר.

<image004.png>

3.ישנה סבירות שכל זה החל מ ה 7/10 תאריך בו חסמנו באופן גורף גישה מכלל העולם לשרת (בין הנחסמים היה גוגל) שימו לב שזו רק סבירות ויכול להיות שזה רק תרם ולא באמת הבעיה.

4.בדקנו כל כיוון אפשרי לעדכון תוסף או שינוי בקובץ ROBOTS

5.לא רק מערכת NET “סובלת” מזה אלא כל האתרים שב WEB3CLOUD

6.אתרים אחרים של הטכניון וגם מערכות כמו WEB לא נתקלו בבעיה.

7.בלוג בשרת לא רואים בכלל שהבוט של גוגל מנסה לסרוק אתרים, מנועי חיפוש אחרים כמו BING מצליחים לסרוק את האתרים וגם רואים את זה בלוג.

 

זה כל המסקנות עד כה.