“[H]aving learned to write news, I now distrust newspapers as a source of information, and I am often surprised by historians who take them as primary sources for knowing what really happened.”
อ่านบทความเรื่อง The Library in the New Age ของ Robert Darnton ที่ตีพิมพ์ใน The New York Review of Books แล้วมีเรื่องให้น่าคิดต่อ
โดยย่อ Darnton ยกประเด็นเรื่อง textual stability มาเป็นปัจจัยสำคัญในการพิจารณาบทบาทของห้องสมุดวิจัย โดยนำเอากรณีศึกษาต่าง ๆ มาชี้ให้เห็นว่า ข้อมูลข่าวสารนั้นถูกบิดเบือนและไม่มีความน่าเชื่อถือมาตั้งแต่ไหนแต่ไร แม้ในยุคก่อนที่จะมีอินเตอร์เน็ต ซึ่งถือเป็นความท้าทายอย่างหนึ่งของห้องสมุดวิจัย ที่จะต้องทำอย่างไรก็ตามเพื่อกลั่นกรอง หรือนำเสนอแง่มุมทุก ๆ ด้าน เพื่อให้นักวิจัยได้ข้อมูลที่ดีที่สุด
ในขณะเดียวกันห้องสมุดวิจัยก็ถูกท้าทายด้วย mass digitization project โดยเฉพาะอย่างยิ่ง Google Book ที่ทำให้ผู้ใช้ไม่จำเป็นต้องเข้ามาอ่านหนังสือที่ห้องสมุดเหมือนแต่ก่อน ซึ่งในบทความค่อนข้างจะอ่อนในเรื่องของการเชื่อมโยงประเด็นของประเด็นนี้เข้าด้วยกัน
ถึงแม้ Darnton จะอ้างว่า project อย่าง Google Book จะส่งเสริมให้ห้องสมุดวิจัยมีความสำคัญมากขึ้น แต่สิ่งที่ Darnton ให้ความสำคัญมากกว่า คือ ภาพของการแข่งกันกันระหว่าง Google Book และห้องสมุดวิจัย โดยมีหัวข้อสำคัญ คือ
- Google Book ไม่สามารถจะสแกนหนังสือได้หมดทั้งโลก ถึงแม้ว่าปริมาณขาดไปเพียงน้อยนิด แต่ส่วนน้อยนิดนั้น อาจมีความสำคัญอย่างยิ่งยวด
- คล้ายกับข้อแรก ถึงแม้จะมีความร่วมมือจากห้องสมุดวิจัยขนาดใหญ่ และเพิ่มจำนวนห้องสมุดที่เข้าร่วมโครงการมากน้อยแค่ไหน แต่ก็ยังมีทรัพยากรสารสนเทศพิเศษ หรือหายากอีกจำนวนมากที่จะไม่ถูกแสกน
- ปัญหาเรื่อง ลิขสิทธิ์สำหรับ Google Book เป็นเรื่องที่ไม่จบง่าย ๆ
- การเปลี่ยนทางเทคโนโลยีที่รวดเร็วอาจะทำให้วันหนึ่ง Google ต้องหายไป เฉกเช่นเดียวกับบริษัทเทคโนโลยีอื่น ๆ ในขณะที่ห้องสมุดวิจัยอยู่ยั่งยืนมานานนับศตวรรษ
- การดำเนินการของ Google Book อาจเกิดข้อผิดพลาดทางเทคนิคที่มีผลต่อการควบคุมคุณภาพ
- ไม่มีอะไรมาการันตีได้ว่าสำเนาหรือวัสดุจัดเก็บจะอยู่ได้นาน ดูได้จากบทเรียนที่ได้จากไมโครฟิล์ม
- ถึงแม้ว่า Google จะสแกนหนังสือในทุกเวอร์ชั่น แต่ในที่สุดเราก็อาจจะไม่รู้ว่า algorithm ที่ใช้แสดงผลการค้นนั้นเหมาะสมหรือไม่
- ปัญหาด้านกายภาพ ยังเป็นข้อจำกัดอยู่เสมอ มีเรื่องที่น่าสนใจช่วงท้าย ซึ่ง Darnton เอานำเรื่อง “กลิ่น” มาเป็นปัจจัยหนึ่ง โดยชี้ว่า ผลการสำรวจของนักเรียน นักศึกษาในฝรั่งเศส (บันทึก: ไม่มีแหล่งที่มา) พบว่า 43 เปอร์เซ็นต์บอกว่า กลิ่นเป็นคุณลักษณะที่สำคัญอย่างหนึ่งของหนังสือในรูปกระดาษ
ท้ายที่สุด Darnton สรุปว่าไม่ควรจะไปหวังพึ่ง Google Book เพียงแหล่งเดียว และสนับสนุนให้พัฒนาห้องสมุดวิจัยต่อไป
ประเด็นที่ผมสนใจ คือ เรื่อง textual (in)stability โดยเฉพาะในบริบทของไทย บทเรียนที่ได้จากศึกษาประวัติศาสตร์ พบว่า ข้อจำกัดอย่างยิ่งยวดของการศึกษาประวัติศาสตร์ไทย การขาดหลักฐานที่น่าเชื่อถือ พงศาวดารฉบับหนึ่งเขียนแบบหนึ่ง อีกฉบับหนึ่งเขียนอีกแบบหนึ่ง นักประวัติศาสตร์ก็อาศัยข้อมูลเหล่านี้มาวิเคราะห์และตีความ เราจะเห็นว่าประวัติศาสตร์ใหม่ของไทย โดยเฉพาะในยุคประชาธิปไตย ข้อมูลข่าวสารโดยเฉพาะจากสื่อมวลชน มีการบิดเบือน และข้อมูลเหล่านี้ก็ถูกนำไปใช้เป็นหลักฐานและข้อมูลอ้างอิงในการวิจัยประวัติศาสตร์อยู่เสมอ ปัญหาคือ ถ้าหากการวิจัยนั้น ไม่สามารถได้ข้อมูลที่ครบถ้วน รอบด้าน ก็กลายเป็นว่า ประวัติศาสตร์ชาติไทยนั้นเป็นเรื่องโกหก หรือพูดไม่หมด หรือไม่ก็กำลังถูกกำหนดชี้นำโดยกลุ่มบุคคลบางกลุ่ม หรือบางครั้งก็ถูกมองข้ามไปอย่างหน้าตาเฉย
มองย้อยกลับมา ณ วันนี้ ตอนนี้ สถานการณ์ก็ใช่ว่าจะดีขึ้นแต่ก่อน หากแต่ซ้ำร้ายไปกว่าเดิม ข้อมูลข่าวสารถูกใช้เป็นเครื่องมือในการโจมตี สาดเสียเทเสีย สร้างความแตกแยกกันขนาดนี้ ข้อมูลปลอม หลักฐานเท็จอะไรบ้างให้ปวดหัวเต็มไปหมด ข้อมูลข่าวสารจากสื่อมวลชนผิดพลาด ก็ไม่ค่อยแก้ไข ปล่อยแล้วก็แล้วกันไป ถ้ายังเป็นอยู่อย่างนี้ต่อไป ก็ไม่รู้ว่าประวัติศาสตร์ของชาติไทยจะออกมาเป็นอย่างไรกัน (เว้นแต่ว่า ณ วันหนึ่ง สื่อมวลชนหมดความน่าเชื่อถือไปเอง จนไม่สามารถนำมาใช้เป็นหลักฐานในการอ้างอิงได้อีกต่อไป จะว่าไป ปัจจุบันนี้ก็เป็นประมาณนั้น)
นอกจากนี้ทุกวันนี้ information stability มีหลาย platform ไม่ได้อยู่ในรูปตัวอักษร (textual) ที่ตีพิมพ์ลงกระดาษเพียงอย่างเดียวเท่านั้น หากแต่มีทั้งที่อยู่ในรูปของภาพ (visual) เสียง (audio) หรือทั้งภาพและเสียง (audio-visual) อีกด้วย ผมคิดว่าทุกคนยังจำประเด็นเรื่องการตัดต่อภาพทีี่มีปัญหาได้ (เช่น การตัดรูปพระบรมฉายาลักษณ์ หรืออย่างล่าสุดภาพเกี่ยวกับธงชาติ ก็ไม่รู้ว่าภาพไหนจริง ภาพไหนปลอม) เดี๋ยวนี้ภาพต่าง ๆ ก็ไม่ได้น่าเชื่อถือเหมือนแต่ก่อนอีกต่อไป หรือถ้าได้ forward mail เป็นเสียงเทปดักฟังใครมา ก็ต้องสันนิษฐานไว้ก่อนแล้ว ว่าทำเลียนแบบขึ้นมาหรือเปล่า ส่วนวิดีโอ ก็เห็นว่าการตัดต่อไม่ใช่เรื่องเฉพาะของนักตัดต่ออาชีพอีกต่อไป ใคร ๆ ก็สามารถตัดต่อได้ แถมยังมีเรื่อง censorship อีกขั้นหนึ่ง
ในอีกมิติหนึ่งของ stability คือ ข้อมูลประเภท crowdsourcing ที่ทุกวันนี้เป็นที่นิยม ใครใคร่แก้ แก้ ใครใคร่ลบ ลบ ลองพิจารณาตัวอย่างที่เห็นได้ชัดคือ ข้อมูลที่อยู่ใน wikipedia หากมองข้ามเรื่องการไม่มี authority ของผู้ใช้ กระนั้นการนำข้อมูลเหล่านี้มาใช้ก็ยังเป็นปัญหาอยู่ดี ควรจะได้รับการยอมรับให้นำมาใช้เป็นหลักฐานหรือแหล่งอ้างอิงทางวิชาการได้หรือไม่ ถึงแม้ว่าในอนาคต การนำข้อมูลเหล่านี้มาใช้อาจได้รับการยอมรับ นักวิจัยก็จำเป็นที่จะต้องดูที่การเปลี่ยนแปลงของแต่ละบทความให้รอบคอบ แต่กระนั้นการดูเพียงเพื่อว่าแก้ไขอะไรไปบ้างเพียงอย่างเดียวก็ไม่พอ ต้องดูว่าแก้ทำไม ซึ่งบางท่านอาจบอกว่า discussion อาจช่วยได้ แต่ปัญหาคือ กิจกรรมการพูดคุยเหล่านี้ ไม่ได้เกิดขึ้นในทุกบทความ
นอกจากนี้เราจะเห็ว่า การอ้างอิงบล๊อกในทางวิชาการเพิ่มมากขึ้นเรื่อย ๆ งานวิจัยที่ผมทำร่วมกับ Hank และ Sheble ก็ชี้ให้เห็นแล้วว่า 99% ของบล๊อกเกอร์เคย edit post ของตัวเอง ซึ่งประเด็นของบล๊อกนี่ซ้ำร้าย เพราะไม่ใช่ทุกคนที่แก้ไขบล๊อกด้วยการเพิ่มเติม บางคนก็แก้ไขด้วยการลบออกไปเสีย นอกจากนี้ในการวิจัยก็พบว่า คนที่ลบ blog post ออกไปนั้น ส่วนใหญ่จะลบออกไปเพราะความคิดของตัวเองในปัจจุบันเห็นต่างไปจากตอนที่เขียนครั้งแรก ซึ่งนี่ก็เป็นข้อที่น่าพิจารณาอีกเช่นกัน
ท้ายสุดดูเหมือนว่า ความรับผิดก็มาตกอยู่ที่ search engine (ไม่ว่าจะเป็น commercial หรือของห้องสมุด) ที่จะทำอย่างไรจะสามารถช่วยให้ผู้ใช้ได้ข้อมูลที่ครบถ้วน และเชื่อมโยงซึ่งกันและกัน (กล่าวคือ มี recall สูง) มี metadata ที่ให้บริบทได้อย่างครบถ้วน ทั้งนี้เพื่อช่วยผู้ใช้แยกแยะความน่าเชื่อถือหรือแจกแจงความขัดแย้งของ information object นั้น ๆ ได้ ซึ่งความคาดหวังดังกล่าว ตั้งอยู่บนสมมติฐานที่ว่าข้อมูลทุกอย่างถูกจัดเก็บอยู่ในรูปดิจิตอลแล้ว ซึ่งถ้าเปรียบเทียบกับการจัดการห้องสมุด ก็มีความแตกต่างโดยหลักการอยู่แล้ว กล่าวคือ ห้องสมุดมีข้อจำกัดในเรื่องทรัพยากร ที่ไม่สามารถจะจัดหา หรือจัดเก็บทุกอย่างได้ ดังนั้นการคัดเลือกคือหน้าที่หลักอย่างหนึ่ง การพิจารณาคัดเลือก ก็มีหลักเกณฑ์หลายประการ ยกตัวอย่าง การทำกฤตภาค (ตัดแปะข่าวหรือข้อมูลที่ได้จากสิ่งพิมพ์ประเภทอื่น ๆ) ทุก ๆ เช้าก็จะมีบรรณารักษ์ทำหน้าที่ scan ดูข่าว ว่ามีข่าวใดที่มีคุณค่าควรแก่การจัดเก็บ ดังนั้นทรัพยากรที่จัดเก็บในห้องสมุดนั้น ผ่านการคัดเลือกมาขั้นหนึ่งแล้ว ในขณะที่การจัดเก็บในของข้อมูลที่สร้างขึ้นมาอยู่ในรูปดิจิตอลอยู่แล้ว (digital born) เป็นการจัดเก็บทุกอย่างที่ขวางหน้า ให้ผู้ใช้เป็นคนตัดสินใจเลือกเอาเองว่าข้อมูลไหนดี ข้อมูลไหนไม่ดี ดังนั้นจึงจำเป็นที่จะต้องอาศัยความสมบูรณ์ของ surrogate และความสามารถของ search engine เป็นสำคัญ
update: บังเอิญไปเจอมาสด ๆ ร้อน ๆ Pressthink มีบทความล่าสุดเกี่ยวกับการทดลองหาวิธีการข่าวที่ดีที่สุดจาก crowdsource
ขอแสดงความคิดเห็นเล็ก ๆ เกี่ยวกับ instability หรือ constancy
เห็นด้วยว่า ไม่ใช่เพียง textual เท่านั้น information ในทุก format ในโลกปัจจุบันล้วนแต่ประสบปัญหา stability ไม่มากก็น้อย
ปัญหาเหล่านี้ทำให้ต้องคิดถึงลักษณะของ information creation ในโลกปัจจุบันค่ะ
– information created by sole and distinct entities อันนี้เราอาจคุ้นเคยกันมากค่ะ
– information created by collaboration อันนี้จะปวดศีรษะมากหน่อย เพราะ collaboration สามารถทำได้หลากหลายขึ้น ไม่ว่าจะเป็น social networking, twitterring, blogging และแน่นอนค่ะ กลุ่ม wiki’s ทั้งหลาย
นอกจากจะมองจากใครเป็นผู้สร้าง information (หรือเผยแพร่นะคะ ขอใช้คำหลวม ๆ หน่อยค่ะ) ยังสามารถพิจารณาได้จาก versioning ได้ด้วยว่า version ที่เราเข้าไปเห็น มันเมื่อไร พูดง่าย ๆ คือ เวลาของการเ้ข้าถึงเป็นประเด็นที่น่าสนใจและแสดงให้เห็นถึง instability
อีกด้านหนึ่ง คือ permanence อันนี้เป็นเรื่องสำคัญสำหรับ electronic information
รีบอ่านบทความของ Darnton แต่คิดว่าบางส่วนไม่เห็นด้วย ที่เขากล่าวว่า ไม่ควรพิจารณา news paper reports เป็น primary documents เพราะโดยส่วนตัว คิดว่าประเด็นไม่ได้เกี่ยวกับการเป็น primary documents แต่ประเด็นน่าจะอยู่ที่การพิจารณาคุณภาพของ content หรือ information มากกว่า นักประวัติศาสตร์ที่ดีจะไม่เชื่อ primary documents โดยไม่ประเมินคุณภาพเสียก่อน การที่เขาเขียนแบบนี้ กว้างเกินไปค่ะ
เท่านี้ก่อนค่ะ สนุกค่ะ