Merge master.
[dcpomatic.git] / src / lib / ffmpeg_decoder.cc
index a637160ae918228ad73c7e9aba46ce49dbdc1e7d..1d000b62bc3d210f3fdbbb26e4adea73553d71be 100644 (file)
@@ -31,7 +31,6 @@
 #include <stdint.h>
 #include <boost/lexical_cast.hpp>
 extern "C" {
-#include <tiffio.h>
 #include <libavcodec/avcodec.h>
 #include <libavformat/avformat.h>
 #include <libswscale/swscale.h>
@@ -39,9 +38,6 @@ extern "C" {
 }
 #include <sndfile.h>
 #include "film.h"
-#include "format.h"
-#include "transcoder.h"
-#include "job.h"
 #include "filter.h"
 #include "exceptions.h"
 #include "image.h"
@@ -59,6 +55,7 @@ using std::string;
 using std::vector;
 using std::stringstream;
 using std::list;
+using std::min;
 using boost::shared_ptr;
 using boost::optional;
 using boost::dynamic_pointer_cast;
@@ -68,7 +65,7 @@ boost::mutex FFmpegDecoder::_mutex;
 
 FFmpegDecoder::FFmpegDecoder (shared_ptr<const Film> f, shared_ptr<const FFmpegContent> c, bool video, bool audio, bool subtitles)
        : Decoder (f)
-       , VideoDecoder (f)
+       , VideoDecoder (f, c)
        , AudioDecoder (f, c)
        , _ffmpeg_content (c)
        , _format_context (0)
@@ -221,7 +218,7 @@ FFmpegDecoder::setup_subtitle ()
 }
 
 
-bool
+void
 FFmpegDecoder::pass ()
 {
        int r = av_read_frame (_format_context, &_packet);
@@ -231,7 +228,9 @@ FFmpegDecoder::pass ()
                        /* Maybe we should fail here, but for now we'll just finish off instead */
                        char buf[256];
                        av_strerror (r, buf, sizeof(buf));
-                       _film->log()->log (String::compose (N_("error on av_read_frame (%1) (%2)"), buf, r));
+                       shared_ptr<const Film> film = _film.lock ();
+                       assert (film);
+                       film->log()->log (String::compose (N_("error on av_read_frame (%1) (%2)"), buf, r));
                }
 
                /* Get any remaining frames */
@@ -249,7 +248,7 @@ FFmpegDecoder::pass ()
                        decode_audio_packet ();
                }
                        
-               return true;
+               return;
        }
 
        avcodec_get_frame_defaults (_frame);
@@ -269,19 +268,18 @@ FFmpegDecoder::pass ()
                        if (sub.num_rects > 0) {
                                shared_ptr<TimedSubtitle> ts;
                                try {
-                                       emit_subtitle (shared_ptr<TimedSubtitle> (new TimedSubtitle (sub)));
+                                       subtitle (shared_ptr<TimedSubtitle> (new TimedSubtitle (sub)));
                                } catch (...) {
                                        /* some problem with the subtitle; we probably didn't understand it */
                                }
                        } else {
-                               emit_subtitle (shared_ptr<TimedSubtitle> ());
+                               subtitle (shared_ptr<TimedSubtitle> ());
                        }
                        avsubtitle_free (&sub);
                }
        }
-       
+
        av_free_packet (&_packet);
-       return false;
 }
 
 /** @param data pointer to array of pointers to buffers.
@@ -403,41 +401,11 @@ FFmpegDecoder::audio_sample_format () const
 }
 
 libdcp::Size
-FFmpegDecoder::native_size () const
+FFmpegDecoder::video_size () const
 {
        return libdcp::Size (_video_codec_context->width, _video_codec_context->height);
 }
 
-PixelFormat
-FFmpegDecoder::pixel_format () const
-{
-       return _video_codec_context->pix_fmt;
-}
-
-int
-FFmpegDecoder::time_base_numerator () const
-{
-       return _video_codec_context->time_base.num;
-}
-
-int
-FFmpegDecoder::time_base_denominator () const
-{
-       return _video_codec_context->time_base.den;
-}
-
-int
-FFmpegDecoder::sample_aspect_ratio_numerator () const
-{
-       return _video_codec_context->sample_aspect_ratio.num;
-}
-
-int
-FFmpegDecoder::sample_aspect_ratio_denominator () const
-{
-       return _video_codec_context->sample_aspect_ratio.den;
-}
-
 string
 FFmpegDecoder::stream_name (AVStream* s) const
 {
@@ -471,38 +439,37 @@ FFmpegDecoder::bytes_per_audio_sample () const
        return av_get_bytes_per_sample (audio_sample_format ());
 }
 
-bool
-FFmpegDecoder::seek (double p)
+void
+FFmpegDecoder::seek (Time t)
 {
-       return do_seek (p, false, false);
+       do_seek (t, false, false);
 }
 
-bool
+void
 FFmpegDecoder::seek_back ()
 {
-       if (last_content_time() < 2.5) {
-               return true;
+       if (next() < (2.5 * TIME_HZ / video_frame_rate())) {
+               return;
        }
        
-       return do_seek (last_content_time() - 2.5 / video_frame_rate(), true, true);
+       do_seek (next() - 2.5 * TIME_HZ / video_frame_rate(), true, true);
 }
 
-bool
+void
 FFmpegDecoder::seek_forward ()
 {
-       if (last_content_time() >= (video_length() - video_frame_rate())) {
-               return true;
+       if (next() >= (_ffmpeg_content->length() - 0.5 * TIME_HZ / video_frame_rate())) {
+               return;
        }
        
-       return do_seek (last_content_time() - 0.5 / video_frame_rate(), true, true);
+       do_seek (next() - 0.5 * TIME_HZ / video_frame_rate(), true, true);
 }
 
-bool
-FFmpegDecoder::do_seek (double p, bool backwards, bool accurate)
+void
+FFmpegDecoder::do_seek (Time t, bool backwards, bool accurate)
 {
-       int64_t const vt = p / av_q2d (_format_context->streams[_video_stream]->time_base);
-
-       int const r = av_seek_frame (_format_context, _video_stream, vt, backwards ? AVSEEK_FLAG_BACKWARD : 0);
+       int64_t const vt = t / (av_q2d (_format_context->streams[_video_stream]->time_base) * TIME_HZ);
+       av_seek_frame (_format_context, _video_stream, vt, backwards ? AVSEEK_FLAG_BACKWARD : 0);
 
        avcodec_flush_buffers (_video_codec_context);
        if (_subtitle_codec_context) {
@@ -513,7 +480,7 @@ FFmpegDecoder::do_seek (double p, bool backwards, bool accurate)
                while (1) {
                        int r = av_read_frame (_format_context, &_packet);
                        if (r < 0) {
-                               return true;
+                               return;
                        }
                        
                        avcodec_get_frame_defaults (_frame);
@@ -532,25 +499,8 @@ FFmpegDecoder::do_seek (double p, bool backwards, bool accurate)
                        av_free_packet (&_packet);
                }
        }
-               
-       return r < 0;
-}
 
-void
-FFmpegDecoder::film_changed (Film::Property p)
-{
-       switch (p) {
-       case Film::CROP:
-       case Film::FILTERS:
-       {
-               boost::mutex::scoped_lock lm (_filter_graphs_mutex);
-               _filter_graphs.clear ();
-       }
-       break;
-
-       default:
-               break;
-       }
+       return;
 }
 
 /** @return Length (in video frames) according to our content's header */
@@ -585,7 +535,7 @@ FFmpegDecoder::decode_audio_packet ()
                                        );
                                
                                assert (_audio_codec_context->channels == _ffmpeg_content->audio_channels());
-                               Audio (deinterleave_audio (_frame->data, data_size), source_pts_seconds);
+                               audio (deinterleave_audio (_frame->data, data_size), source_pts_seconds);
                        }
                        
                        copy_packet.data += decode_result;
@@ -603,35 +553,71 @@ FFmpegDecoder::decode_video_packet ()
        }
                
        boost::mutex::scoped_lock lm (_filter_graphs_mutex);
-       
+
        shared_ptr<FilterGraph> graph;
        
        list<shared_ptr<FilterGraph> >::iterator i = _filter_graphs.begin();
        while (i != _filter_graphs.end() && !(*i)->can_process (libdcp::Size (_frame->width, _frame->height), (AVPixelFormat) _frame->format)) {
                ++i;
        }
-       
+
        if (i == _filter_graphs.end ()) {
-               graph.reset (new FilterGraph (_film, this, libdcp::Size (_frame->width, _frame->height), (AVPixelFormat) _frame->format));
+               shared_ptr<const Film> film = _film.lock ();
+               assert (film);
+
+               graph.reset (new FilterGraph (_ffmpeg_content, libdcp::Size (_frame->width, _frame->height), (AVPixelFormat) _frame->format));
                _filter_graphs.push_back (graph);
-               _film->log()->log (String::compose (N_("New graph for %1x%2, pixel format %3"), _frame->width, _frame->height, _frame->format));
+
+               film->log()->log (String::compose (N_("New graph for %1x%2, pixel format %3"), _frame->width, _frame->height, _frame->format));
        } else {
                graph = *i;
        }
-       
+
        list<shared_ptr<Image> > images = graph->process (_frame);
+
+       string post_process = Filter::ffmpeg_strings (_ffmpeg_content->filters()).second;
        
        for (list<shared_ptr<Image> >::iterator i = images.begin(); i != images.end(); ++i) {
+
+               shared_ptr<Image> image = *i;
+               if (!post_process.empty ()) {
+                       image = image->post_process (post_process, true);
+               }
+               
                int64_t const bet = av_frame_get_best_effort_timestamp (_frame);
                if (bet != AV_NOPTS_VALUE) {
                        /* XXX: may need to insert extra frames / remove frames here ...
                           (as per old Matcher)
                        */
-                       emit_video (*i, false, bet * av_q2d (_format_context->streams[_video_stream]->time_base) * TIME_HZ);
+                       Time const t = bet * av_q2d (_format_context->streams[_video_stream]->time_base) * TIME_HZ;
+                       video (image, false, t);
                } else {
-                       _film->log()->log ("Dropping frame without PTS");
+                       shared_ptr<const Film> film = _film.lock ();
+                       assert (film);
+                       film->log()->log ("Dropping frame without PTS");
                }
        }
 
        return true;
 }
+
+Time
+FFmpegDecoder::next () const
+{
+       if (_decode_video && _decode_audio && _audio_codec_context) {
+               return min (_next_video, _next_audio);
+       }
+
+       if (_decode_audio && _audio_codec_context) {
+               return _next_audio;
+       }
+
+       return _next_video;
+}
+
+bool
+FFmpegDecoder::done () const
+{
+       return (!_decode_audio || !_audio_codec_context || audio_done()) && (!_decode_video || video_done());
+}
+