Though our model was trained on object-centric ImageNet dataset, we demon- strate that it nonetheless remains effective for photos from the scene-centric SUN dataset selected by Deshpande et al. Deshpande et al. recently established a benchmark for colorization using a subset of the SUN dataset and reported top results using an algorithm based on LEARCH. we use the same grayscale input as, which is R+G. Note that this input space is non-linearly related to the L channel on which we trained. De- spite differences in grayscale space and training dataset, our method outperforms Deshpande et al. in both the raw accuracy AuC CMF and perceptual realism AMT metrics. Figure 11 shows qualitative comparisons between our method and Deshpande et al., one from each of the six scene categories. A complete comparison on all 240 images are included in the supplementary material. Our results are able to fool participants in the real vs. fake task 17.2% of the time, significantly higher than Deshpande et al. at 9.8%. Our model generalizes well to datasets on which it was not trained. Here we show results on the dataset from, which consists of six scene categories from SUN.Compared to the state of the art algorithm on this dataset , our method pro- duces more perceptually plausible colorization. to see the results on all 240 images
แม้ว่ารูปแบบของเราได้รับการฝึกฝนในชุดข้อมูลที่ ImageNet วัตถุเป็นศูนย์กลางเรา demon- strate ว่ามันกระนั้นยังคง E FF ective สำหรับภาพถ่ายจากที่เกิดเหตุเป็นศูนย์กลางชุด SUN เลือกโดย Deshpande et al, Deshpande et al, เมื่อเร็ว ๆ นี้การจัดตั้งมาตรฐานสำหรับใช้ colorization ย่อยของชุดข้อมูลที่ดวงอาทิตย์และรายงานผลด้านบนโดยใช้วิธีขึ้นอยู่กับ LEARCH เราใช้การป้อนข้อมูลสีเทาเช่นเดียวซึ่งเป็น R + G โปรดทราบว่าเข้าพื้นที่นี้เป็นแบบไม่เป็นเส้นตรงที่เกี่ยวข้องกับช่อง L ที่เราได้รับการฝึกฝน de- ทั้งๆ di erences FF ในพื้นที่สีเทาและชุดการฝึกอบรมวิธีการของเรามีประสิทธิภาพดีกว่า Deshpande et al, ทั้งในความถูกต้องดิบ AuC CMF และตัวชี้วัดการรับรู้ AMT สมจริง รูปที่ 11 แสดงให้เห็นถึงการเปรียบเทียบเชิงคุณภาพระหว่างวิธีการและ Deshpande et al., หนึ่งของเราจากแต่ละประเภทฉากหก การเปรียบเทียบสมบูรณ์ในทุก 240 ภาพจะถูกรวมอยู่ในวัสดุเสริม ผลของเรามีความสามารถที่จะหลอกผู้เข้าร่วมในงานจริงกับของปลอม 17.2% ของเวลาที่มีนัยสำคัญ Fi อย่างมีสูงกว่า Deshpande et al, ที่ 9.8% แบบจำลองของเรา generalizes ดีเพื่อชุดข้อมูลที่มันก็ไม่ได้รับการฝึกอบรม ที่นี่เราจะแสดงผลการค้นหาในชุดข้อมูลจากซึ่งประกอบด้วยหกประเภทภาพจาก SUN.Compared ไปยังสถานะของอัลกอริทึมศิลปะในชุดนี้, วิธีการของเราโปร duces เพิ่มเติม perceptually colorization ที่น่าเชื่อถือ จะเห็นผลในทุก 240 ภาพ
การแปล กรุณารอสักครู่..
