Kupes balığının uzunluk ve ağırlığının bilgisayarlı görme yöntemiyle belirlenmesi
Tarih
Yazarlar
Dergi Başlığı
Dergi ISSN
Cilt Başlığı
Yayıncı
Erişim Hakkı
Özet
Balıkçılık sektöründe işlem hacminin artması, balıkçılığın ciddi gelir kaynağı olması ve bazı türlerin yok olma tehlikesiyle yüz yüze olması nedeniyle balıkların sınıflandırılması ve ağırlıklarına göre ayrılması önem kazanmıştır. Bu sebeplerden dolayı, ağırlık hesabının hızlı ve hassas yapılması gereği ortaya çıkmış ve bu duruma çare olarak görüntü işleme teknikleri denenmeye başlanmıştır. Bu çalışmada çözüm önerisi olarak, resimden balığın boy ve bazı metrik bilgilerini elde ederek ağırlığına ulaşma yöntemi açıklanmaktadır. Yöntemde iki kamera ve iki tavan aydınlatma LED ışığıyla kapalı bir kutu yapılmıştır. Bu görüntüleme kutusu kullanılarak balığın iki yönden görüntüsü elde edilip, metrikler hesaplanmaktadır. Elde edilen hacme yakın bu metrik değerleri üzerinden makine öğrenmesi ile metrik-ağırlık fonksiyonu bulunmuştur. Bu fonksiyon kullanılarak balığın ağırlığına ulaşılmaktadır. Sistemin oluşturulması aşamasında kupes balığı örnek balık olarak kullanılmıştır. Sistem kullanılarak balığın ağırlığına ortalama %1,956 hata payıyla ulaşılmaktadır.
According to growth of trading volume of fishery sector, since the source of income from fishery and die out of some families, classifying fish and determining weight of fish become more important. Thus, calculation of weight must be done more quickly and accurately. In order to solve this problem, image processing techniques has been tried to be used. In this work as a solution method, fish length and some metrics will be gotten from image to calculate the weight. In this study, two webcams and two LED lights were used to build up an imaging box. Using this box, fish images were captured from two sides and then the metric has been calculated. From these metrics, metric-weight function was obtained by machine learning. Using this function, weight of the fish has been calculated. Boops-boops is used as a sample fish in the experiments. This solution gives results with 1.956% error margin in average.











