b857860bde32c730cdf581436c1c27902ecf507e
[dcpomatic.git] / src / lib / ffmpeg_decoder.cc
1 /*
2     Copyright (C) 2012 Carl Hetherington <cth@carlh.net>
3
4     This program is free software; you can redistribute it and/or modify
5     it under the terms of the GNU General Public License as published by
6     the Free Software Foundation; either version 2 of the License, or
7     (at your option) any later version.
8
9     This program is distributed in the hope that it will be useful,
10     but WITHOUT ANY WARRANTY; without even the implied warranty of
11     MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12     GNU General Public License for more details.
13
14     You should have received a copy of the GNU General Public License
15     along with this program; if not, write to the Free Software
16     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
17
18 */
19
20 /** @file  src/ffmpeg_decoder.cc
21  *  @brief A decoder using FFmpeg to decode content.
22  */
23
24 #include <stdexcept>
25 #include <vector>
26 #include <sstream>
27 #include <iomanip>
28 #include <iostream>
29 #include <stdint.h>
30 #include <boost/lexical_cast.hpp>
31 extern "C" {
32 #include <tiffio.h>
33 #include <libavcodec/avcodec.h>
34 #include <libavformat/avformat.h>
35 #include <libswscale/swscale.h>
36 #include <libpostproc/postprocess.h>
37 }
38 #include <sndfile.h>
39 #include "film.h"
40 #include "format.h"
41 #include "transcoder.h"
42 #include "job.h"
43 #include "filter.h"
44 #include "exceptions.h"
45 #include "image.h"
46 #include "util.h"
47 #include "log.h"
48 #include "ffmpeg_decoder.h"
49 #include "filter_graph.h"
50 #include "subtitle.h"
51
52 #include "i18n.h"
53
54 using std::cout;
55 using std::string;
56 using std::vector;
57 using std::stringstream;
58 using std::list;
59 using boost::shared_ptr;
60 using boost::optional;
61 using boost::dynamic_pointer_cast;
62 using libdcp::Size;
63
64 boost::mutex FFmpegDecoder::_mutex;
65
66 FFmpegDecoder::FFmpegDecoder (shared_ptr<const Film> f, shared_ptr<const FFmpegContent> c, bool video, bool audio, bool subtitles)
67         : Decoder (f)
68         , VideoDecoder (f)
69         , AudioDecoder (f)
70         , _ffmpeg_content (c)
71         , _format_context (0)
72         , _video_stream (-1)
73         , _frame (0)
74         , _video_codec_context (0)
75         , _video_codec (0)
76         , _audio_codec_context (0)
77         , _audio_codec (0)
78         , _subtitle_codec_context (0)
79         , _subtitle_codec (0)
80         , _decode_video (video)
81         , _decode_audio (audio)
82         , _decode_subtitles (subtitles)
83 {
84         setup_general ();
85         setup_video ();
86         setup_audio ();
87         setup_subtitle ();
88 }
89
90 FFmpegDecoder::~FFmpegDecoder ()
91 {
92         boost::mutex::scoped_lock lm (_mutex);
93         
94         if (_audio_codec_context) {
95                 avcodec_close (_audio_codec_context);
96         }
97
98         if (_video_codec_context) {
99                 avcodec_close (_video_codec_context);
100         }
101
102         if (_subtitle_codec_context) {
103                 avcodec_close (_subtitle_codec_context);
104         }
105
106         av_free (_frame);
107         
108         avformat_close_input (&_format_context);
109 }       
110
111 void
112 FFmpegDecoder::setup_general ()
113 {
114         av_register_all ();
115
116         if (avformat_open_input (&_format_context, _ffmpeg_content->file().string().c_str(), 0, 0) < 0) {
117                 throw OpenFileError (_ffmpeg_content->file().string ());
118         }
119
120         if (avformat_find_stream_info (_format_context, 0) < 0) {
121                 throw DecodeError (_("could not find stream information"));
122         }
123
124         /* Find video, audio and subtitle streams */
125
126         for (uint32_t i = 0; i < _format_context->nb_streams; ++i) {
127                 AVStream* s = _format_context->streams[i];
128                 if (s->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
129                         _video_stream = i;
130                 } else if (s->codec->codec_type == AVMEDIA_TYPE_AUDIO) {
131
132                         /* This is a hack; sometimes it seems that _audio_codec_context->channel_layout isn't set up,
133                            so bodge it here.  No idea why we should have to do this.
134                         */
135
136                         if (s->codec->channel_layout == 0) {
137                                 s->codec->channel_layout = av_get_default_channel_layout (s->codec->channels);
138                         }
139                         
140                         _audio_streams.push_back (
141                                 FFmpegAudioStream (stream_name (s), i, s->codec->sample_rate, s->codec->channels)
142                                 );
143                         
144                 } else if (s->codec->codec_type == AVMEDIA_TYPE_SUBTITLE) {
145                         _subtitle_streams.push_back (FFmpegSubtitleStream (stream_name (s), i));
146                 }
147         }
148
149         if (_video_stream < 0) {
150                 throw DecodeError (N_("could not find video stream"));
151         }
152
153         _frame = avcodec_alloc_frame ();
154         if (_frame == 0) {
155                 throw DecodeError (N_("could not allocate frame"));
156         }
157 }
158
159 void
160 FFmpegDecoder::setup_video ()
161 {
162         boost::mutex::scoped_lock lm (_mutex);
163         
164         _video_codec_context = _format_context->streams[_video_stream]->codec;
165         _video_codec = avcodec_find_decoder (_video_codec_context->codec_id);
166
167         if (_video_codec == 0) {
168                 throw DecodeError (_("could not find video decoder"));
169         }
170
171         if (avcodec_open2 (_video_codec_context, _video_codec, 0) < 0) {
172                 throw DecodeError (N_("could not open video decoder"));
173         }
174 }
175
176 void
177 FFmpegDecoder::setup_audio ()
178 {
179         boost::mutex::scoped_lock lm (_mutex);
180         
181         if (!_ffmpeg_content->audio_stream ()) {
182                 return;
183         }
184
185         _audio_codec_context = _format_context->streams[_ffmpeg_content->audio_stream()->id]->codec;
186         _audio_codec = avcodec_find_decoder (_audio_codec_context->codec_id);
187
188         if (_audio_codec == 0) {
189                 throw DecodeError (_("could not find audio decoder"));
190         }
191
192         if (avcodec_open2 (_audio_codec_context, _audio_codec, 0) < 0) {
193                 throw DecodeError (N_("could not open audio decoder"));
194         }
195 }
196
197 void
198 FFmpegDecoder::setup_subtitle ()
199 {
200         boost::mutex::scoped_lock lm (_mutex);
201         
202         if (!_ffmpeg_content->subtitle_stream() || _ffmpeg_content->subtitle_stream()->id >= int (_format_context->nb_streams)) {
203                 return;
204         }
205
206         _subtitle_codec_context = _format_context->streams[_ffmpeg_content->subtitle_stream()->id]->codec;
207         _subtitle_codec = avcodec_find_decoder (_subtitle_codec_context->codec_id);
208
209         if (_subtitle_codec == 0) {
210                 throw DecodeError (_("could not find subtitle decoder"));
211         }
212         
213         if (avcodec_open2 (_subtitle_codec_context, _subtitle_codec, 0) < 0) {
214                 throw DecodeError (N_("could not open subtitle decoder"));
215         }
216 }
217
218
219 bool
220 FFmpegDecoder::pass ()
221 {
222         int r = av_read_frame (_format_context, &_packet);
223         
224         if (r < 0) {
225                 if (r != AVERROR_EOF) {
226                         /* Maybe we should fail here, but for now we'll just finish off instead */
227                         char buf[256];
228                         av_strerror (r, buf, sizeof(buf));
229                         _film->log()->log (String::compose (N_("error on av_read_frame (%1) (%2)"), buf, r));
230                 }
231
232                 /* Get any remaining frames */
233                 
234                 _packet.data = 0;
235                 _packet.size = 0;
236                 
237                 /* XXX: should we reset _packet.data and size after each *_decode_* call? */
238                 
239                 if (_decode_video) {
240                         decode_video_packet ();
241                 }
242
243                 if (_ffmpeg_content->audio_stream() && _decode_audio) {
244                         decode_audio_packet ();
245                 }
246                         
247                 return true;
248         }
249
250         avcodec_get_frame_defaults (_frame);
251
252         if (_packet.stream_index == _video_stream && _decode_video) {
253                 decode_video_packet ();
254         } else if (_ffmpeg_content->audio_stream() && _packet.stream_index == _ffmpeg_content->audio_stream()->id && _decode_audio) {
255                 decode_audio_packet ();
256         } else if (_ffmpeg_content->subtitle_stream() && _packet.stream_index == _ffmpeg_content->subtitle_stream()->id && _decode_subtitles) {
257
258                 int got_subtitle;
259                 AVSubtitle sub;
260                 if (avcodec_decode_subtitle2 (_subtitle_codec_context, &sub, &got_subtitle, &_packet) && got_subtitle) {
261                         /* Sometimes we get an empty AVSubtitle, which is used by some codecs to
262                            indicate that the previous subtitle should stop.
263                         */
264                         if (sub.num_rects > 0) {
265                                 shared_ptr<TimedSubtitle> ts;
266                                 try {
267                                         emit_subtitle (shared_ptr<TimedSubtitle> (new TimedSubtitle (sub)));
268                                 } catch (...) {
269                                         /* some problem with the subtitle; we probably didn't understand it */
270                                 }
271                         } else {
272                                 emit_subtitle (shared_ptr<TimedSubtitle> ());
273                         }
274                         avsubtitle_free (&sub);
275                 }
276         }
277         
278         av_free_packet (&_packet);
279         return false;
280 }
281
282 /** @param data pointer to array of pointers to buffers.
283  *  Only the first buffer will be used for non-planar data, otherwise there will be one per channel.
284  */
285 shared_ptr<AudioBuffers>
286 FFmpegDecoder::deinterleave_audio (uint8_t** data, int size)
287 {
288         assert (_ffmpeg_content->audio_channels());
289         assert (bytes_per_audio_sample());
290
291         /* Deinterleave and convert to float */
292
293         assert ((size % (bytes_per_audio_sample() * _ffmpeg_content->audio_channels())) == 0);
294
295         int const total_samples = size / bytes_per_audio_sample();
296         int const frames = total_samples / _ffmpeg_content->audio_channels();
297         shared_ptr<AudioBuffers> audio (new AudioBuffers (_ffmpeg_content->audio_channels(), frames));
298
299         switch (audio_sample_format()) {
300         case AV_SAMPLE_FMT_S16:
301         {
302                 int16_t* p = reinterpret_cast<int16_t *> (data[0]);
303                 int sample = 0;
304                 int channel = 0;
305                 for (int i = 0; i < total_samples; ++i) {
306                         audio->data(channel)[sample] = float(*p++) / (1 << 15);
307
308                         ++channel;
309                         if (channel == _ffmpeg_content->audio_channels()) {
310                                 channel = 0;
311                                 ++sample;
312                         }
313                 }
314         }
315         break;
316
317         case AV_SAMPLE_FMT_S16P:
318         {
319                 int16_t** p = reinterpret_cast<int16_t **> (data);
320                 for (int i = 0; i < _ffmpeg_content->audio_channels(); ++i) {
321                         for (int j = 0; j < frames; ++j) {
322                                 audio->data(i)[j] = static_cast<float>(p[i][j]) / (1 << 15);
323                         }
324                 }
325         }
326         break;
327         
328         case AV_SAMPLE_FMT_S32:
329         {
330                 int32_t* p = reinterpret_cast<int32_t *> (data[0]);
331                 int sample = 0;
332                 int channel = 0;
333                 for (int i = 0; i < total_samples; ++i) {
334                         audio->data(channel)[sample] = static_cast<float>(*p++) / (1 << 31);
335
336                         ++channel;
337                         if (channel == _ffmpeg_content->audio_channels()) {
338                                 channel = 0;
339                                 ++sample;
340                         }
341                 }
342         }
343         break;
344
345         case AV_SAMPLE_FMT_FLT:
346         {
347                 float* p = reinterpret_cast<float*> (data[0]);
348                 int sample = 0;
349                 int channel = 0;
350                 for (int i = 0; i < total_samples; ++i) {
351                         audio->data(channel)[sample] = *p++;
352
353                         ++channel;
354                         if (channel == _ffmpeg_content->audio_channels()) {
355                                 channel = 0;
356                                 ++sample;
357                         }
358                 }
359         }
360         break;
361                 
362         case AV_SAMPLE_FMT_FLTP:
363         {
364                 float** p = reinterpret_cast<float**> (data);
365                 for (int i = 0; i < _ffmpeg_content->audio_channels(); ++i) {
366                         memcpy (audio->data(i), p[i], frames * sizeof(float));
367                 }
368         }
369         break;
370
371         default:
372                 throw DecodeError (String::compose (_("Unrecognised audio sample format (%1)"), static_cast<int> (audio_sample_format())));
373         }
374
375         return audio;
376 }
377
378 float
379 FFmpegDecoder::video_frame_rate () const
380 {
381         AVStream* s = _format_context->streams[_video_stream];
382
383         if (s->avg_frame_rate.num && s->avg_frame_rate.den) {
384                 return av_q2d (s->avg_frame_rate);
385         }
386
387         return av_q2d (s->r_frame_rate);
388 }
389
390 AVSampleFormat
391 FFmpegDecoder::audio_sample_format () const
392 {
393         if (_audio_codec_context == 0) {
394                 return (AVSampleFormat) 0;
395         }
396         
397         return _audio_codec_context->sample_fmt;
398 }
399
400 libdcp::Size
401 FFmpegDecoder::native_size () const
402 {
403         return libdcp::Size (_video_codec_context->width, _video_codec_context->height);
404 }
405
406 PixelFormat
407 FFmpegDecoder::pixel_format () const
408 {
409         return _video_codec_context->pix_fmt;
410 }
411
412 int
413 FFmpegDecoder::time_base_numerator () const
414 {
415         return _video_codec_context->time_base.num;
416 }
417
418 int
419 FFmpegDecoder::time_base_denominator () const
420 {
421         return _video_codec_context->time_base.den;
422 }
423
424 int
425 FFmpegDecoder::sample_aspect_ratio_numerator () const
426 {
427         return _video_codec_context->sample_aspect_ratio.num;
428 }
429
430 int
431 FFmpegDecoder::sample_aspect_ratio_denominator () const
432 {
433         return _video_codec_context->sample_aspect_ratio.den;
434 }
435
436 string
437 FFmpegDecoder::stream_name (AVStream* s) const
438 {
439         stringstream n;
440
441         if (s->metadata) {
442                 AVDictionaryEntry const * lang = av_dict_get (s->metadata, N_("language"), 0, 0);
443                 if (lang) {
444                         n << lang->value;
445                 }
446                 
447                 AVDictionaryEntry const * title = av_dict_get (s->metadata, N_("title"), 0, 0);
448                 if (title) {
449                         if (!n.str().empty()) {
450                                 n << N_(" ");
451                         }
452                         n << title->value;
453                 }
454         }
455
456         if (n.str().empty()) {
457                 n << N_("unknown");
458         }
459
460         return n.str ();
461 }
462
463 int
464 FFmpegDecoder::bytes_per_audio_sample () const
465 {
466         return av_get_bytes_per_sample (audio_sample_format ());
467 }
468
469 bool
470 FFmpegDecoder::seek (double p)
471 {
472         return do_seek (p, false, false);
473 }
474
475 bool
476 FFmpegDecoder::seek_back ()
477 {
478         if (last_content_time() < 2.5) {
479                 return true;
480         }
481         
482         return do_seek (last_content_time() - 2.5 / video_frame_rate(), true, true);
483 }
484
485 bool
486 FFmpegDecoder::seek_forward ()
487 {
488         if (last_content_time() >= (video_length() - video_frame_rate())) {
489                 return true;
490         }
491         
492         return do_seek (last_content_time() - 0.5 / video_frame_rate(), true, true);
493 }
494
495 bool
496 FFmpegDecoder::do_seek (double p, bool backwards, bool accurate)
497 {
498         int64_t const vt = p / av_q2d (_format_context->streams[_video_stream]->time_base);
499
500         int const r = av_seek_frame (_format_context, _video_stream, vt, backwards ? AVSEEK_FLAG_BACKWARD : 0);
501
502         avcodec_flush_buffers (_video_codec_context);
503         if (_subtitle_codec_context) {
504                 avcodec_flush_buffers (_subtitle_codec_context);
505         }
506
507         if (accurate) {
508                 while (1) {
509                         int r = av_read_frame (_format_context, &_packet);
510                         if (r < 0) {
511                                 return true;
512                         }
513                         
514                         avcodec_get_frame_defaults (_frame);
515                         
516                         if (_packet.stream_index == _video_stream) {
517                                 int finished = 0;
518                                 int const r = avcodec_decode_video2 (_video_codec_context, _frame, &finished, &_packet);
519                                 if (r >= 0 && finished) {
520                                         int64_t const bet = av_frame_get_best_effort_timestamp (_frame);
521                                         if (bet > vt) {
522                                                 break;
523                                         }
524                                 }
525                         }
526                         
527                         av_free_packet (&_packet);
528                 }
529         }
530                 
531         return r < 0;
532 }
533
534 void
535 FFmpegDecoder::film_changed (Film::Property p)
536 {
537         switch (p) {
538         case Film::CROP:
539         case Film::FILTERS:
540         {
541                 boost::mutex::scoped_lock lm (_filter_graphs_mutex);
542                 _filter_graphs.clear ();
543         }
544         break;
545
546         default:
547                 break;
548         }
549 }
550
551 /** @return Length (in video frames) according to our content's header */
552 ContentVideoFrame
553 FFmpegDecoder::video_length () const
554 {
555         return (double(_format_context->duration) / AV_TIME_BASE) * video_frame_rate();
556 }
557
558 void
559 FFmpegDecoder::decode_audio_packet ()
560 {
561         /* Audio packets can contain multiple frames, so we may have to call avcodec_decode_audio4
562            several times.
563         */
564         
565         AVPacket copy_packet = _packet;
566
567         while (copy_packet.size > 0) {
568
569                 int frame_finished;
570                 int const decode_result = avcodec_decode_audio4 (_audio_codec_context, _frame, &frame_finished, &copy_packet);
571                 if (decode_result >= 0) {
572                         if (frame_finished) {
573                         
574                                 /* Where we are in the source, in seconds */
575                                 double const source_pts_seconds = av_q2d (_format_context->streams[copy_packet.stream_index]->time_base)
576                                         * av_frame_get_best_effort_timestamp(_frame);
577                                 
578                                 int const data_size = av_samples_get_buffer_size (
579                                         0, _audio_codec_context->channels, _frame->nb_samples, audio_sample_format (), 1
580                                         );
581                                 
582                                 assert (_audio_codec_context->channels == _ffmpeg_content->audio_channels());
583                                 Audio (deinterleave_audio (_frame->data, data_size), source_pts_seconds);
584                         }
585                         
586                         copy_packet.data += decode_result;
587                         copy_packet.size -= decode_result;
588                 }
589         }
590 }
591
592 void
593 FFmpegDecoder::decode_video_packet ()
594 {
595         int frame_finished;
596         while (avcodec_decode_video2 (_video_codec_context, _frame, &frame_finished, &_packet) >= 0 && frame_finished) {
597                 boost::mutex::scoped_lock lm (_filter_graphs_mutex);
598                 
599                 shared_ptr<FilterGraph> graph;
600                 
601                 list<shared_ptr<FilterGraph> >::iterator i = _filter_graphs.begin();
602                 while (i != _filter_graphs.end() && !(*i)->can_process (libdcp::Size (_frame->width, _frame->height), (AVPixelFormat) _frame->format)) {
603                         ++i;
604                 }
605                 
606                 if (i == _filter_graphs.end ()) {
607                         graph.reset (new FilterGraph (_film, this, libdcp::Size (_frame->width, _frame->height), (AVPixelFormat) _frame->format));
608                         _filter_graphs.push_back (graph);
609                         _film->log()->log (String::compose (N_("New graph for %1x%2, pixel format %3"), _frame->width, _frame->height, _frame->format));
610                 } else {
611                         graph = *i;
612                 }
613                 
614                 list<shared_ptr<Image> > images = graph->process (_frame);
615                 
616                 for (list<shared_ptr<Image> >::iterator i = images.begin(); i != images.end(); ++i) {
617                         int64_t const bet = av_frame_get_best_effort_timestamp (_frame);
618                         if (bet != AV_NOPTS_VALUE) {
619                                 /* XXX: may need to insert extra frames / remove frames here ...
620                                    (as per old Matcher)
621                                 */
622                                 emit_video (*i, false, bet * av_q2d (_format_context->streams[_video_stream]->time_base));
623                         } else {
624                                 _film->log()->log ("Dropping frame without PTS");
625                         }
626                 }
627         }
628 }