Merge master.
[dcpomatic.git] / src / lib / video_decoder.cc
index 0c8cda2944c47b7b7bdb97815e9978a69af069d5..43b1049ccaf5f89920147f040cf5e96635f66675 100644 (file)
@@ -1,7 +1,5 @@
-/* -*- c-basic-offset: 8; default-tab-width: 8; -*- */
-
 /*
-    Copyright (C) 2012 Carl Hetherington <cth@carlh.net>
+    Copyright (C) 2012-2014 Carl Hetherington <cth@carlh.net>
 
     This program is free software; you can redistribute it and/or modify
     it under the terms of the GNU General Public License as published by
 */
 
 #include "video_decoder.h"
-#include "subtitle.h"
-#include "film.h"
 #include "image.h"
-#include "log.h"
-#include "job.h"
+#include "content_video.h"
 
 #include "i18n.h"
 
 using std::cout;
+using std::list;
 using boost::shared_ptr;
 using boost::optional;
 
-VideoDecoder::VideoDecoder (shared_ptr<const Film> f, shared_ptr<const VideoContent> c)
-       : Decoder (f)
+VideoDecoder::VideoDecoder (shared_ptr<const VideoContent> c)
+#ifdef DCPOMATIC_DEBUG
+       : test_gaps (0)
        , _video_content (c)
-       , _video_frame (0)
-       , _last_content_time (0)
+#else
+       : _video_content (c)
+#endif
 {
 
 }
 
-/** Called by subclasses to tell the world that some video data is ready.
- *  We find a subtitle then emit it for listeners.
- *  @param image frame to emit.
- *  @param t Time of the frame within the source.
+list<ContentVideo>
+VideoDecoder::decoded_video (VideoFrame frame)
+{
+       list<ContentVideo> output;
+       
+       for (list<ContentVideo>::const_iterator i = _decoded_video.begin(); i != _decoded_video.end(); ++i) {
+               if (i->frame == frame) {
+                       output.push_back (*i);
+               }
+       }
+
+       return output;
+}
+
+/** Get all frames which exist in the content at a given frame index.
+ *  @param frame Frame index.
+ *  @param accurate true to try hard to return frames at the precise time that was requested, otherwise frames nearby may be returned.
+ *  @return Frames; there may be none (if there is no video there), 1 for 2D or 2 for 3D.
  */
-void
-VideoDecoder::emit_video (shared_ptr<Image> image, bool same, Time t)
+list<ContentVideo>
+VideoDecoder::get_video (VideoFrame frame, bool accurate)
 {
-       shared_ptr<Subtitle> sub;
-       if (_timed_subtitle && _timed_subtitle->displayed_at (t)) {
-               sub = _timed_subtitle->subtitle ();
+       if (_decoded_video.empty() || (frame < _decoded_video.front().frame || frame > (_decoded_video.back().frame + 1))) {
+               /* Either we have no decoded data, or what we do have is a long way from what we want: seek */
+               seek (ContentTime::from_frames (frame, _video_content->video_frame_rate()), accurate);
        }
 
-       TIMING (N_("Decoder emits %1"), _video_frame);
-       Video (image, same, sub, t);
-       ++_video_frame;
+       list<ContentVideo> dec;
+
+       /* Now enough pass() calls should either:
+        *  (a) give us what we want, or
+        *  (b) hit the end of the decoder.
+        */
+       if (accurate) {
+               /* We are being accurate, so we want the right frame.
+                * This could all be one statement but it's split up for clarity.
+                */
+               while (true) {
+                       if (!decoded_video(frame).empty ()) {
+                               /* We got what we want */
+                               break;
+                       }
+
+                       if (pass ()) {
+                               /* The decoder has nothing more for us */
+                               break;
+                       }
+
+                       if (!_decoded_video.empty() && _decoded_video.front().frame > frame) {
+                               /* We're never going to get the frame we want.  Perhaps the caller is asking
+                                * for a video frame before the content's video starts (if its audio
+                                * begins before its video, for example).
+                                */
+                               break;
+                       }
+               }
+
+               dec = decoded_video (frame);
+       } else {
+               /* Any frame will do: use the first one that comes out of pass() */
+               while (_decoded_video.empty() && !pass ()) {}
+               if (!_decoded_video.empty ()) {
+                       dec.push_back (_decoded_video.front ());
+               }
+       }
 
-       _last_content_time = t;
+       /* Clean up decoded_video */
+       while (!_decoded_video.empty() && _decoded_video.front().frame < (frame - 1)) {
+               _decoded_video.pop_front ();
+       }
+
+       return dec;
 }
 
-/** Set up the current subtitle.  This will be put onto frames that
- *  fit within its time specification.  s may be 0 to say that there
- *  is no current subtitle.
- *  @param s New current subtitle, or 0.
- */
+
+/** Called by subclasses when they have a video frame ready */
 void
-VideoDecoder::emit_subtitle (shared_ptr<TimedSubtitle> s)
+VideoDecoder::video (shared_ptr<const ImageProxy> image, VideoFrame frame)
 {
-       _timed_subtitle = s;
+       /* We should not receive the same thing twice */
+       assert (_decoded_video.empty() || frame != _decoded_video.back().frame);
+
+       /* Fill in gaps */
+       /* XXX: 3D */
+
+       while (!_decoded_video.empty () && (_decoded_video.back().frame + 1) < frame) {
+#ifdef DCPOMATIC_DEBUG
+               test_gaps++;
+#endif
+               _decoded_video.push_back (
+                       ContentVideo (
+                               _decoded_video.back().image,
+                               _decoded_video.back().eyes,
+                               _decoded_video.back().part,
+                               _decoded_video.back().frame + 1
+                               )
+                       );
+       }
        
-       if (_timed_subtitle) {
-               Position const p = _timed_subtitle->subtitle()->position ();
-               _timed_subtitle->subtitle()->set_position (Position (p.x - _video_content->crop().left, p.y - _video_content->crop().top));
+       switch (_video_content->video_frame_type ()) {
+       case VIDEO_FRAME_TYPE_2D:
+               _decoded_video.push_back (ContentVideo (image, EYES_BOTH, PART_WHOLE, frame));
+               break;
+       case VIDEO_FRAME_TYPE_3D_ALTERNATE:
+               _decoded_video.push_back (ContentVideo (image, (frame % 2) ? EYES_RIGHT : EYES_LEFT, PART_WHOLE, frame));
+               break;
+       case VIDEO_FRAME_TYPE_3D_LEFT_RIGHT:
+               _decoded_video.push_back (ContentVideo (image, EYES_LEFT, PART_LEFT_HALF, frame));
+               _decoded_video.push_back (ContentVideo (image, EYES_RIGHT, PART_RIGHT_HALF, frame));
+               break;
+       case VIDEO_FRAME_TYPE_3D_TOP_BOTTOM:
+               _decoded_video.push_back (ContentVideo (image, EYES_LEFT, PART_TOP_HALF, frame));
+               _decoded_video.push_back (ContentVideo (image, EYES_RIGHT, PART_BOTTOM_HALF, frame));
+               break;
+       case VIDEO_FRAME_TYPE_3D_LEFT:
+               _decoded_video.push_back (ContentVideo (image, EYES_LEFT, PART_WHOLE, frame));
+               break;
+       case VIDEO_FRAME_TYPE_3D_RIGHT:
+               _decoded_video.push_back (ContentVideo (image, EYES_RIGHT, PART_WHOLE, frame));
+               break;
+       default:
+               assert (false);
        }
 }
 
 void
-VideoDecoder::set_progress (Job* j) const
+VideoDecoder::seek (ContentTime, bool)
 {
-       assert (j);
-
-       if (_film->length()) {
-               j->set_progress (float (_video_frame) / _film->time_to_video_frames (_film->length()));
-       }
+       _decoded_video.clear ();
 }
+