Otitis Media is an infection of the middle ear that can occur in individuals of all ages. Diagnosis typically involves analyzing images taken with an otoscope by specialized physicians, which relies heavily on medical experience to expedite the process. This research introduces computer vision technology to assist in the preliminary diagnosis, aiding expert decision-making. By utilizing deep learning techniques and convolutional neural networks, specifically the YOLOv8 and Inception v3 architectures, the study aims to classify the disease and its five characteristics used by physicians: color, transparency, fluid, retraction, and perforation. Additionally, image segmentation and classification methods were employed to analyze and predict the types of Otitis Media, which are categorized into four types: Otitis Media with Effusion, Acute Otitis Media with Effusion, Perforation, and Normal. Experimental results indicate that the classification model performs moderately well in directly classifying Otitis Media, with an accuracy of 65.7%, a recall of 65.7%, and a precision of 67.6%. Moreover, the model provides the best results for classifying the perforation characteristic, with an accuracy of 91.8%, a recall of 91.8%, and a precision of 92.1%. In contrast, the classification model that incorporates image segmentation techniques achieved the best overall performance, with an mAP50-95 of 79.63%, a recall of 100%, and a precision of 99.8%. However, this model has not yet been tested for classifying the different types of Otitis Media.
โรคหูน้ำหนวกเป็นโรคที่เกิดจากการอักเสบของหูชั้นกลาง โดยมีอาการปวดหู หูอื้อ และมีน้ำไหลซึมออกมาจากหู ในบางกรณีที่ได้รับการรักษาไม่ถูกต้องหรือไม่ทันการ อาจพบว่ามีน้ำหนองซึมรวมอยู่ด้วย นอกจากนี้หากอาการอักเสบเกิดความรุนแรงเพิ่มมากขึ้น อาจส่งผลให้ผู้ป่วยสูญเสียการได้ยินและเกิดภาวะแทรกซ้อนซึ่งเป็นสาเหตุอันนำไปสู่การเกิดโรคอื่น ๆ ในกระบวนการรักษาโรคหูน้ำหนวกจำเป็นต้องมีแพทย์ผู้เชี่ยวชาญทำการวินิจฉัย โดยสอดกล้องออโตสโคปเข้าไปในรูหูเพื่อตรวจสอบ อย่างไรก็ตาม ในขั้นตอนนี้มักพบปัญหาและข้อจำกัดบางประการ เช่น ทักษะและประสบการณ์ของแพทย์ผู้ตรวจอาจไม่ชำนาญพอจะวินิจฉัยได้อย่างถูกต้องแม่นยำ ความพร้อมของเครื่องมือและอุปกรณ์ซึ่ง ในบางครั้งจำเป็นต้องมีการวินิจฉัยเพิ่มด้วยการวัดขนาดแก้วหูหรือการถ่ายภาพ ดังนั้นแล้วในขั้นตอนการรักษานี้สามารถพัฒนาเครื่องมือร่วมกับการประยุกต์ใช้ศาสตร์องค์-ความรู้ทางด้านคอมพิวเตอร์เข้ามาเพื่อแก้ปัญหา รวมทั้งช่วยลดภาระงานของบุคลากรทางการแพทย์ โดยเฉพาะอย่างยิ่งคือการขาดแคลนบุคลากรซึ่งมีไม่เพียงพอต่อปริมาณผู้ป่วย นอกจากนี้เพื่อให้การรักษามีประสิทธิภาพ ยังต้องคำนึงถึงความพร้อมของแพทย์ผู้รักษาซึ่งไม่ใช่เพียงทักษะหรือเครื่องมือ แต่รวมไปถึงสภาพร่างกายที่อาจเกิดจากความเหนื่อยล้าและโอกาสเกิดข้อผิดพลาดจากการวินิจฉัย หัวข้อปัญหาพิเศษนี้จึงได้นำเสนอแนวทางการแก้ไขปัญหาโดยการนำทฤษฎีการเรียนรู้เชิงลึก(Deep Learning) มาประยุกต์ใช้ เพื่อเป็นเครื่องมือช่วยในการจำแนกอาการผิดปกติของโรคหูน้ำหนวกจากภาพถ่ายและภาพเคลื่อนไหว ซึ่งเก็บรวบรวมจากแพทย์ผู้เชี่ยวชาญ ทั้งนี้ ปัจจัยสำคัญที่เป็นจุดสังเกตในการวินิจฉัยโรค ได้แก่ ปริมาณของเหลวในหูชั้นกลาง การหดตัวของเยื่อหูชั้นกลาง สีของของเหลวในหูชั้นกลาง ความโปร่งใสของเยื่อหูชั้นกลาง การทะลุของเยื่อหู และการขยับของเยื่อ-แก้วหูเมื่อเป่าลมทดสอบ ทั้งหมดนี้สามารถนำไปวิเคราะห์และจำแนกเป็นอาการได้ดังนี้ หูปกติ เยื่อ-แก้วหูยุบ เยื่อแก้วหูทะลุ มีของเหลวขังในเยื่อแก้วหู เยื่อแก้วหูอักเสบเฉียบพลัน และหูชั้นกลางทะลุ

คณะศิลปศาสตร์
Board games are becoming a popular way to connect people, especially in cafés and social spaces. Meanwhile, Thailand’s diverse tourism—rich in nature, culture, and regional charm—attracts visitors worldwide. We combine the thrill of travel with board games to showcase hidden gems in a fun and educational way, leading to the creation of “C(4)ulture Adventure Board Game.”

คณะวิศวกรรมศาสตร์
The integration of intelligent robotic systems into human-centric environments, such as laboratories, hospitals, and educational institutions, has become increasingly important due to the growing demand for accessible and context-aware assistants. However, current solutions often lack scalability—for instance, relying on specialized personnel to repeatedly answer the same questions as administrators for specific departments—and adaptability to dynamic environments that require real-time situational responses. This study introduces a novel framework for an interactive robotic assistant (Beckerle et al. , 2017) designed to assist during laboratory tours and mitigate the challenges posed by limited human resources in providing comprehensive information to visitors. The proposed system operates through multiple modes, including standby mode and recognition mode, to ensure seamless interaction and adaptability in various contexts. In standby mode, the robot signals readiness with a smiling face animation while patrolling predefined paths or conserving energy when stationary. Advanced obstacle detection ensures safe navigation in dynamic environments. Recognition mode activates through gestures or wake words, using advanced computer vision and real-time speech recognition to identify users. Facial recognition further classifies individuals as known or unknown, providing personalized greetings or context-specific guidance to enhance user engagement. The proposed robot and its 3D design are shown in Figure 1. In interactive mode, the system integrates advanced technologies, including advanced speech recognition (ASR Whisper), natural language processing (NLP), and a large language model Ollama 3.2 (LLM Predictor, 2025), to provide a user-friendly, context-aware, and adaptable experience. Motivated by the need to engage students and promote interest in the RAI department, which receives over 1,000 visitors annually, it addresses accessibility gaps where human staff may be unavailable. With wake word detection, face and gesture recognition, and LiDAR-based obstacle detection, the robot ensures seamless communication in English, alongside safe and efficient navigation. The Retrieval-Augmented Generation (RAG) human interaction system communicates with the mobile robot, built on ROS1 Noetic, using the MQTT protocol over Ethernet. It publishes navigation goals to the move_base module in ROS, which autonomously handles navigation and obstacle avoidance. A diagram is explained in Figure 2. The framework includes a robust back-end architecture utilizing a combination of MongoDB for information storage and retrieval and a RAG mechanism (Thüs et al., 2024) to process program curriculum information in the form of PDFs. This ensures that the robot provides accurate and contextually relevant answers to user queries. Furthermore, the inclusion of smiling face animations and text-to-speech (TTS BotNoi) enhanced user engagement metrics were derived through a combination of observational studies and surveys, which highlighted significant improvements in user satisfaction and accessibility. This paper also discusses capability to operate in dynamic environments and human-centric spaces. For example, handling interruptions while navigating during a mission. The modular design allows for easy integration of additional features, such as gesture recognition and hardware upgrades, ensuring long-term scalability. However, limitations such as the need for high initial setup costs and dependency on specific hardware configurations are acknowledged. Future work will focus on enhancing the system’s adaptability to diverse languages, expanding its use cases, and exploring collaborative interactions between multiple robots. In conclusion, the proposed interactive robotic assistant represents a significant step forward in bridging the gap between human needs and technological advancements. By combining cutting-edge AI technologies with practical hardware solutions, this work offers a scalable, efficient, and user-friendly system that enhances accessibility and user engagement in human-centric spaces.

คณะวิศวกรรมศาสตร์
The evaluation of mango yield and consumer behavior reflects an increasing awareness of product origins, with a growing demand for traceability to understand how the produce has been cultivated and managed. This study explores the relationship between mango characteristics and cultivation practices before harvest, using location identification to provide insights into these processes. To achieve this, a model was developed to detect and locate mangoes using 2D images via a Deep Learning approach. The study also investigates techniques to determine the real-world coordinates of mangoes from 2D images. The YOLOv8 model was employed for object detection, integrated with camera calibration and triangulation techniques to estimate the 3D positions of detected mangoes. Experiments involved 125 trials with randomized mango positions and camera placements at varying yaw and pitch angles. Parameters extracted from sequential images were compared to derive the actual 3D positions of the mangoes. The YOLOv8 model demonstrated high performance with prediction metrics of Precision (0.928), Recall (0.901), mAP50 (0.965), mAP50-95 (0.785), and F1-Score (0.914). These results indicate sufficient accuracy for predicting mango positions, with an average positional error of approximately 38 centimeters.