KMITL Expo 2026 LogoKMITL 66th Anniversary Logo

CLASSIFICATION OF OTITIS MEDIA TYPE USING OTOSCOPIC IMAGES

Abstract

Otitis Media is an infection of the middle ear that can occur in individuals of all ages. Diagnosis typically involves analyzing images taken with an otoscope by specialized physicians, which relies heavily on medical experience to expedite the process. This research introduces computer vision technology to assist in the preliminary diagnosis, aiding expert decision-making. By utilizing deep learning techniques and convolutional neural networks, specifically the YOLOv8 and Inception v3 architectures, the study aims to classify the disease and its five characteristics used by physicians: color, transparency, fluid, retraction, and perforation. Additionally, image segmentation and classification methods were employed to analyze and predict the types of Otitis Media, which are categorized into four types: Otitis Media with Effusion, Acute Otitis Media with Effusion, Perforation, and Normal. Experimental results indicate that the classification model performs moderately well in directly classifying Otitis Media, with an accuracy of 65.7%, a recall of 65.7%, and a precision of 67.6%. Moreover, the model provides the best results for classifying the perforation characteristic, with an accuracy of 91.8%, a recall of 91.8%, and a precision of 92.1%. In contrast, the classification model that incorporates image segmentation techniques achieved the best overall performance, with an mAP50-95 of 79.63%, a recall of 100%, and a precision of 99.8%. However, this model has not yet been tested for classifying the different types of Otitis Media.

Objective

โรคหูน้ำหนวกเป็นโรคที่เกิดจากการอักเสบของหูชั้นกลาง โดยมีอาการปวดหู หูอื้อ และมีน้ำไหลซึมออกมาจากหู ในบางกรณีที่ได้รับการรักษาไม่ถูกต้องหรือไม่ทันการ อาจพบว่ามีน้ำหนองซึมรวมอยู่ด้วย นอกจากนี้หากอาการอักเสบเกิดความรุนแรงเพิ่มมากขึ้น อาจส่งผลให้ผู้ป่วยสูญเสียการได้ยินและเกิดภาวะแทรกซ้อนซึ่งเป็นสาเหตุอันนำไปสู่การเกิดโรคอื่น ๆ ในกระบวนการรักษาโรคหูน้ำหนวกจำเป็นต้องมีแพทย์ผู้เชี่ยวชาญทำการวินิจฉัย โดยสอดกล้องออโตสโคปเข้าไปในรูหูเพื่อตรวจสอบ อย่างไรก็ตาม ในขั้นตอนนี้มักพบปัญหาและข้อจำกัดบางประการ เช่น ทักษะและประสบการณ์ของแพทย์ผู้ตรวจอาจไม่ชำนาญพอจะวินิจฉัยได้อย่างถูกต้องแม่นยำ ความพร้อมของเครื่องมือและอุปกรณ์ซึ่ง ในบางครั้งจำเป็นต้องมีการวินิจฉัยเพิ่มด้วยการวัดขนาดแก้วหูหรือการถ่ายภาพ ดังนั้นแล้วในขั้นตอนการรักษานี้สามารถพัฒนาเครื่องมือร่วมกับการประยุกต์ใช้ศาสตร์องค์-ความรู้ทางด้านคอมพิวเตอร์เข้ามาเพื่อแก้ปัญหา รวมทั้งช่วยลดภาระงานของบุคลากรทางการแพทย์ โดยเฉพาะอย่างยิ่งคือการขาดแคลนบุคลากรซึ่งมีไม่เพียงพอต่อปริมาณผู้ป่วย นอกจากนี้เพื่อให้การรักษามีประสิทธิภาพ ยังต้องคำนึงถึงความพร้อมของแพทย์ผู้รักษาซึ่งไม่ใช่เพียงทักษะหรือเครื่องมือ แต่รวมไปถึงสภาพร่างกายที่อาจเกิดจากความเหนื่อยล้าและโอกาสเกิดข้อผิดพลาดจากการวินิจฉัย หัวข้อปัญหาพิเศษนี้จึงได้นำเสนอแนวทางการแก้ไขปัญหาโดยการนำทฤษฎีการเรียนรู้เชิงลึก(Deep Learning) มาประยุกต์ใช้ เพื่อเป็นเครื่องมือช่วยในการจำแนกอาการผิดปกติของโรคหูน้ำหนวกจากภาพถ่ายและภาพเคลื่อนไหว ซึ่งเก็บรวบรวมจากแพทย์ผู้เชี่ยวชาญ ทั้งนี้ ปัจจัยสำคัญที่เป็นจุดสังเกตในการวินิจฉัยโรค ได้แก่ ปริมาณของเหลวในหูชั้นกลาง การหดตัวของเยื่อหูชั้นกลาง สีของของเหลวในหูชั้นกลาง ความโปร่งใสของเยื่อหูชั้นกลาง การทะลุของเยื่อหู และการขยับของเยื่อ-แก้วหูเมื่อเป่าลมทดสอบ ทั้งหมดนี้สามารถนำไปวิเคราะห์และจำแนกเป็นอาการได้ดังนี้ หูปกติ เยื่อ-แก้วหูยุบ เยื่อแก้วหูทะลุ มีของเหลวขังในเยื่อแก้วหู เยื่อแก้วหูอักเสบเฉียบพลัน และหูชั้นกลางทะลุ

Other Innovations

Team Member Work Tracking System

วิทยาเขตชุมพรเขตรอุดมศักดิ์

Team Member Work Tracking System

This project focuses on developing a work tracking system for team members. Python is used to extract data from Excel files and import it into a SQL Server database for systematic data management. The system includes a function to notify task status via LINE and displays reports via Power BI, allowing supervisors to track progress and evaluate team members' performance efficiently. Additionally, the system helps promote work and time management skills for team members.

Read more
A Unified Framework for Automated Captioning and Damage Segmentation in Car Damage Analysis

คณะเทคโนโลยีสารสนเทศ

A Unified Framework for Automated Captioning and Damage Segmentation in Car Damage Analysis

This research presents a deep learning method for generating automatic captions from the segmentation of car part damage. It analyzes car images using a Unified Framework to accurately and quickly identify and describe the damage. The development is based on the research "GRiT: A Generative Region-to-text Transformer for Object Understanding," which has been adapted for car image analysis. The improvement aims to make the model generate precise descriptions for different areas of the car, from damaged parts to identifying various components. The researchers focuses on developing deep learning techniques for automatic caption generation and damage segmentation in car damage analysis. The aim is to enable precise identification and description of damages on vehicles, there by increasing speed and reducing the work load of experts in damage assessment. Traditionally, damage assessment relies solely on expert evaluations, which are costly and time-consuming. To address this issue, we propose utilizing data generation for training, automatic caption creation, and damage segmentation using an integrated framework. The researchers created a new dataset from CarDD, which is specifically designed for cardamage detection. This dataset includes labeled damages on vehicles, and the researchers have used it to feed into models for segmenting car parts and accurately labeling each part and damage category. Preliminary results from the model demonstrate its capability in automatic caption generation and damage segmentation for car damage analysis to be satisfactory. With these results, the model serves as an essential foundation for future development. This advancement aims not only to enhance performance in damage segmentation and caption generation but also to improve the model’s adaptability to a diversity of damages occurring on various surfaces and parts of vehicles. This will allow the system to be applied more broadly to different vehicle types and conditions of damage inthe future

Read more
Astaxanthin-rich Oil Extracted with Ultrasound Assisted-Natural Deep Eutectic Solvent from the Byproduct of Black Tiger Shrimp (Panaeus monodon).

คณะอุตสาหกรรมอาหาร

Astaxanthin-rich Oil Extracted with Ultrasound Assisted-Natural Deep Eutectic Solvent from the Byproduct of Black Tiger Shrimp (Panaeus monodon).

The study investigated the extraction of astaxanthin-rich oil from shrimp waste biomass, a valuable byproduct rich in functional lipids and proteins. Wet rendering has long been an inexpensive method to extract oil, however the high temperatures and long cooking times negatively affect the amount of astaxanthin. On the other hand, the study looked into employing deep eutectic solvent as a green solvent and combining a wet rendering process with high-shear homogenization and high-frequency ultrasound-assisted extractions. DES-UAE at 60% amplitude and wet rendering at 60 °C were found to be the ideal conditions, as were DES-HAE at 13,000 rpm and wet rendering at 60 °C. With a notable increase in oil yields of 16.80% and 20.12%, respectively, and improved oil quality (lower acid and peroxide values) in comparison to the conventional wet rendering, experimental validation validated the effectiveness of the DES-HAE and DES-UAE procedures. DES-UAE notably raised the amount of astaxanthin. This study demonstrates that DES-HAE and DES-UAE are quicker, lower-temperature substitutes for obtaining premium, astaxanthin-rich shrimp oil, resulting in more effective use of this priceless byproduct.

Read more