นโยบายการจัดการความรู้ มหาวิทยาลัยสงขลานครินทร์ 1.ให้ใช้เครื่องมือการจัดการความรู้ผลักดัน คุณภาพคน และกระบวนทำงาน 2.ส่งเสริมการแลกเปลี่ยนประสบการณ์การทำงาน จากหน้างาน 3.ส่งเสริมให้มีเวทีเรียนรู้ร่วมกัน
อ่าน: 1209
ความเห็น: 4

ภาระงานของระบบ share เปรียบเทียบกับเมื่อ 1 สัปดาห์ที่ผ่านมา

ภาระงานของระบบ share

ภาระงานเฉลี่ยทุก 1 นาที
วันที่ 31 มค. 2558 เวลา 0900

วันที่ 7 กพ. 2558 เวลา 2200


ภาระงานเฉลี่ยทุก 5 นาที
วันที่ 31 มค. 2558 เวลา 0900


วันที่ 7 กพ. 2558 เวลา 2200


ภาระงานเฉลี่ยทุก 15 นาที
วันที่ 31 มค. 2558 เวลา 0900


วันที่ 7 กพ. 2558 เวลา 2200



ภาระงานเฉลี่ยทุก 1,5 และ 15 นาที รวมอยู่ในรูปเดียวกัน
วันที่ 31 มค. 2558 เวลา 0900


วันที่ 7 กพ. 2558 เวลา 2200


สิ่งที่ทำให้เกิดการเปลี่ยนแปลง คือการเพิ่ม config จำนวน 3 บรรทัดนี้เข้าไปในไฟล์ config ของ share.psu.ac.th

        if ( $http_user_agent ~* (Baiduspider) ) {
            return 403;
        }

/จบ. การรายงานข่าวสั้นเพียงแต่เท่านี้ครับ :)

หมวดหมู่บันทึก: เรื่องทั่วไป
คำสำคัญ (keywords): share.psu.ac.th  baidu
สัญญาอนุญาต: ซีซี: แสดงที่มา-ไม่ใช้เพื่อการค้า-อนุญาตแบบเดียวกัน Cc-by-nc-sa
สร้าง: 07 กุมภาพันธ์ 2558 22:29 แก้ไข: 07 กุมภาพันธ์ 2558 22:30 [ แจ้งไม่เหมาะสม ]
ดอกไม้
สมาชิกที่ให้กำลังใจ: Ico24 Baby, Ico24 Monly, และ 8 คนอื่น.
สมาชิกที่ให้กำลังใจ
 
Facebook
Twitter
Google

บันทึกอื่นๆ

ความเห็น

มีสำหรับตรวจจับมนุษย์ไม่ครับอาจารย์

จะได้เลิกทำ TOR 5555

Ico48
วิบูลย์ [IP: 192.168.6.91]
09 กุมภาพันธ์ 2558 09:23
#101846

อ่านบทความแล้ว ตีความว่า เพราะ Baiduspider เลยเชียว

เอ่อ! ไม่ทราบว่าใช้วิชา ติดตั้ง cacti ลงไปในเครื่อง share แล้วเก็บข้อมูลไปเรื่อยๆ แล้วหลังจากนั้นใช้ shell script ค้นหาด้วยคำสั่ง grep Baiduspider ใช่เปล่าครับ อยากได้ความรู้วิธีที่นำเสนอจังเลยครับ แอดมินในม.อ.จะได้เก่งๆ

รู้สึกว่า peak แหลมๆมักอยู่ที่เที่ยงคืนแปลว่าคนใช้เยอะหรือเปล่าคะตอนนั้น

เรียน คุณทดแทน ถ้าตัด bot ออกไปทั้งหมด ที่เหลือก็น่าจะเป็น มนุษย์แหละครับ แต่จะเอาไปใช้รองรับการเลิกทำ TOR ได้หรือเปล่านั้น อันนั้น ... ผมไม่ทราบเหมือนกันครับ -_-"

เรียน พี่หวุ่น ใช้ shell script ธรรมดาเลยครับ ระบบ web ของ share ใช้ nginx เป็นตัว frontend รับการร้องขอจากภายนอกทั้งหมดอยู่แล้ว เพียงแต่ค่อยเอาการร้องขออันนั้นมาแยกอีกทีว่าเป็นไฟล์ข้อมูลแบบ static ธรรมดา หรือเป็นข้อมูลที่จะต้องประมวลผลโดย ตัว knowledgevolution ที่เป็น backend (เอ หรือจะเป็น middleware? เพราะมี mysql เป็น database backend อีกที) ทีนี้ ไม่ว่า request จะมายังไง nginx ก็จะจัดการ log request เอาไว้ก่อนเสมอ เพราะงั้น เอาข้อมูลจาก log ของ nginx ไปแยกนับได้ง่ายๆเลย ไม่ได้ซับซ้อนอะไรมาก ... เพียงแต่ก่อนหน้านี้ ผมมัวแต่ไปดู log ของตัว KV อยู่ เลยสับสน มึนๆ งงๆ ไปกับทั้งข้อมูลใน log เอง และ code ของ ruby (ทั้งๆที่ไม่น่าไปเสียเวลากับส่วนนั้น) พอยังหาวิธีการจัดการกับมันไม่ได้ง่ายๆ ก็เลยหยุดไปพักใหญ่ๆ พอกลับมาดูอีกรอบ ถอยไปอยู่ห่างๆ แล้วเริ่มแกะจากรอบนอกใหม่อีกครั้ง คราวนี้เลยเจอวิธีการที่ง่ายกว่า ได้ข้อมูลมาไม่ยาก แล้วหลังจากนั้น ก็เลยไปหาวิธีการแก้โดยใช้การจัดการที่ระดับของ nginx frontend เอง โดยไม่ต้องเข้าไปยุ่งกับ code ของ KV (ซึ่งจะต้องไปทำความเข้าใจกับภาษา ruby และ framework ของ KV) เลยครับ

เรียน พี่โอ๋-อโณ ส่วนที่เป็น peak แหลมๆ ตอนเลยเที่ยงคืนไปหน่อยนึง เป็นตอนที่มีการ backup ข้อมูล ไปเก็บไว้ข้างนอกครับ เลยมีโหลดสูง ไม่ได้เกิดขึ้นจากการใช้งานครับ

ร่วมแสดงความเห็นในหน้านี้

ชื่อ:
อีเมล:
IP แอดเดรส: 35.175.191.168
ข้อความ:  
เรียกเครื่องมือจัดการข้อความ
   
ยกเลิก หรือ