mirror of
https://github.com/FFmpeg/FFmpeg.git
synced 2025-01-08 13:22:53 +02:00
Merge commit '6139f481ac9feb1bee4e7d04789fb15d7f24ebbf'
* commit '6139f481ac9feb1bee4e7d04789fb15d7f24ebbf': asvenc: use the AVFrame API properly. a64multienc: use the AVFrame API properly. Conflicts: libavcodec/vaapi_mpeg.c Merged-by: Michael Niedermayer <michaelni@gmx.at>
This commit is contained in:
commit
cc4a643563
@ -40,9 +40,6 @@
|
|||||||
#define C64YRES 200
|
#define C64YRES 200
|
||||||
|
|
||||||
typedef struct A64Context {
|
typedef struct A64Context {
|
||||||
/* general variables */
|
|
||||||
AVFrame picture;
|
|
||||||
|
|
||||||
/* variables for multicolor modes */
|
/* variables for multicolor modes */
|
||||||
AVLFG randctx;
|
AVLFG randctx;
|
||||||
int mc_lifetime;
|
int mc_lifetime;
|
||||||
@ -189,6 +186,7 @@ static void render_charset(AVCodecContext *avctx, uint8_t *charset,
|
|||||||
static av_cold int a64multi_close_encoder(AVCodecContext *avctx)
|
static av_cold int a64multi_close_encoder(AVCodecContext *avctx)
|
||||||
{
|
{
|
||||||
A64Context *c = avctx->priv_data;
|
A64Context *c = avctx->priv_data;
|
||||||
|
av_frame_free(&avctx->coded_frame);
|
||||||
av_free(c->mc_meta_charset);
|
av_free(c->mc_meta_charset);
|
||||||
av_free(c->mc_best_cb);
|
av_free(c->mc_best_cb);
|
||||||
av_free(c->mc_charset);
|
av_free(c->mc_charset);
|
||||||
@ -240,8 +238,12 @@ static av_cold int a64multi_init_encoder(AVCodecContext *avctx)
|
|||||||
AV_WB32(avctx->extradata, c->mc_lifetime);
|
AV_WB32(avctx->extradata, c->mc_lifetime);
|
||||||
AV_WB32(avctx->extradata + 16, INTERLACED);
|
AV_WB32(avctx->extradata + 16, INTERLACED);
|
||||||
|
|
||||||
avcodec_get_frame_defaults(&c->picture);
|
avctx->coded_frame = av_frame_alloc();
|
||||||
avctx->coded_frame = &c->picture;
|
if (!avctx->coded_frame) {
|
||||||
|
a64multi_close_encoder(avctx);
|
||||||
|
return AVERROR(ENOMEM);
|
||||||
|
}
|
||||||
|
|
||||||
avctx->coded_frame->pict_type = AV_PICTURE_TYPE_I;
|
avctx->coded_frame->pict_type = AV_PICTURE_TYPE_I;
|
||||||
avctx->coded_frame->key_frame = 1;
|
avctx->coded_frame->key_frame = 1;
|
||||||
if (!avctx->codec_tag)
|
if (!avctx->codec_tag)
|
||||||
@ -271,7 +273,7 @@ static int a64multi_encode_frame(AVCodecContext *avctx, AVPacket *pkt,
|
|||||||
const AVFrame *pict, int *got_packet)
|
const AVFrame *pict, int *got_packet)
|
||||||
{
|
{
|
||||||
A64Context *c = avctx->priv_data;
|
A64Context *c = avctx->priv_data;
|
||||||
AVFrame *const p = &c->picture;
|
AVFrame *const p = avctx->coded_frame;
|
||||||
|
|
||||||
int frame;
|
int frame;
|
||||||
int x, y;
|
int x, y;
|
||||||
|
@ -89,6 +89,5 @@ av_cold void ff_asv_common_init(AVCodecContext *avctx) {
|
|||||||
a->mb_width2 = (avctx->width + 0) / 16;
|
a->mb_width2 = (avctx->width + 0) / 16;
|
||||||
a->mb_height2 = (avctx->height + 0) / 16;
|
a->mb_height2 = (avctx->height + 0) / 16;
|
||||||
|
|
||||||
avctx->coded_frame= &a->picture;
|
|
||||||
a->avctx= avctx;
|
a->avctx= avctx;
|
||||||
}
|
}
|
||||||
|
@ -38,7 +38,6 @@
|
|||||||
typedef struct ASV1Context{
|
typedef struct ASV1Context{
|
||||||
AVCodecContext *avctx;
|
AVCodecContext *avctx;
|
||||||
DSPContext dsp;
|
DSPContext dsp;
|
||||||
AVFrame picture;
|
|
||||||
PutBitContext pb;
|
PutBitContext pb;
|
||||||
GetBitContext gb;
|
GetBitContext gb;
|
||||||
ScanTable scantable;
|
ScanTable scantable;
|
||||||
|
@ -148,14 +148,16 @@ static inline int encode_mb(ASV1Context *a, int16_t block[6][64]){
|
|||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
static inline void dct_get(ASV1Context *a, int mb_x, int mb_y){
|
static inline void dct_get(ASV1Context *a, const AVFrame *frame,
|
||||||
|
int mb_x, int mb_y)
|
||||||
|
{
|
||||||
int16_t (*block)[64]= a->block;
|
int16_t (*block)[64]= a->block;
|
||||||
int linesize= a->picture.linesize[0];
|
int linesize = frame->linesize[0];
|
||||||
int i;
|
int i;
|
||||||
|
|
||||||
uint8_t *ptr_y = a->picture.data[0] + (mb_y * 16* linesize ) + mb_x * 16;
|
uint8_t *ptr_y = frame->data[0] + (mb_y * 16* linesize ) + mb_x * 16;
|
||||||
uint8_t *ptr_cb = a->picture.data[1] + (mb_y * 8 * a->picture.linesize[1]) + mb_x * 8;
|
uint8_t *ptr_cb = frame->data[1] + (mb_y * 8 * frame->linesize[1]) + mb_x * 8;
|
||||||
uint8_t *ptr_cr = a->picture.data[2] + (mb_y * 8 * a->picture.linesize[2]) + mb_x * 8;
|
uint8_t *ptr_cr = frame->data[2] + (mb_y * 8 * frame->linesize[2]) + mb_x * 8;
|
||||||
|
|
||||||
a->dsp.get_pixels(block[0], ptr_y , linesize);
|
a->dsp.get_pixels(block[0], ptr_y , linesize);
|
||||||
a->dsp.get_pixels(block[1], ptr_y + 8, linesize);
|
a->dsp.get_pixels(block[1], ptr_y + 8, linesize);
|
||||||
@ -165,8 +167,8 @@ static inline void dct_get(ASV1Context *a, int mb_x, int mb_y){
|
|||||||
a->dsp.fdct(block[i]);
|
a->dsp.fdct(block[i]);
|
||||||
|
|
||||||
if(!(a->avctx->flags&CODEC_FLAG_GRAY)){
|
if(!(a->avctx->flags&CODEC_FLAG_GRAY)){
|
||||||
a->dsp.get_pixels(block[4], ptr_cb, a->picture.linesize[1]);
|
a->dsp.get_pixels(block[4], ptr_cb, frame->linesize[1]);
|
||||||
a->dsp.get_pixels(block[5], ptr_cr, a->picture.linesize[2]);
|
a->dsp.get_pixels(block[5], ptr_cr, frame->linesize[2]);
|
||||||
for(i=4; i<6; i++)
|
for(i=4; i<6; i++)
|
||||||
a->dsp.fdct(block[i]);
|
a->dsp.fdct(block[i]);
|
||||||
}
|
}
|
||||||
@ -176,7 +178,6 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
|
|||||||
const AVFrame *pict, int *got_packet)
|
const AVFrame *pict, int *got_packet)
|
||||||
{
|
{
|
||||||
ASV1Context * const a = avctx->priv_data;
|
ASV1Context * const a = avctx->priv_data;
|
||||||
AVFrame * const p= &a->picture;
|
|
||||||
int size, ret;
|
int size, ret;
|
||||||
int mb_x, mb_y;
|
int mb_x, mb_y;
|
||||||
|
|
||||||
@ -186,13 +187,9 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
|
|||||||
|
|
||||||
init_put_bits(&a->pb, pkt->data, pkt->size);
|
init_put_bits(&a->pb, pkt->data, pkt->size);
|
||||||
|
|
||||||
*p = *pict;
|
|
||||||
p->pict_type= AV_PICTURE_TYPE_I;
|
|
||||||
p->key_frame= 1;
|
|
||||||
|
|
||||||
for(mb_y=0; mb_y<a->mb_height2; mb_y++){
|
for(mb_y=0; mb_y<a->mb_height2; mb_y++){
|
||||||
for(mb_x=0; mb_x<a->mb_width2; mb_x++){
|
for(mb_x=0; mb_x<a->mb_width2; mb_x++){
|
||||||
dct_get(a, mb_x, mb_y);
|
dct_get(a, pict, mb_x, mb_y);
|
||||||
encode_mb(a, a->block);
|
encode_mb(a, a->block);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -200,7 +197,7 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
|
|||||||
if(a->mb_width2 != a->mb_width){
|
if(a->mb_width2 != a->mb_width){
|
||||||
mb_x= a->mb_width2;
|
mb_x= a->mb_width2;
|
||||||
for(mb_y=0; mb_y<a->mb_height2; mb_y++){
|
for(mb_y=0; mb_y<a->mb_height2; mb_y++){
|
||||||
dct_get(a, mb_x, mb_y);
|
dct_get(a, pict, mb_x, mb_y);
|
||||||
encode_mb(a, a->block);
|
encode_mb(a, a->block);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -208,7 +205,7 @@ static int encode_frame(AVCodecContext *avctx, AVPacket *pkt,
|
|||||||
if(a->mb_height2 != a->mb_height){
|
if(a->mb_height2 != a->mb_height){
|
||||||
mb_y= a->mb_height2;
|
mb_y= a->mb_height2;
|
||||||
for(mb_x=0; mb_x<a->mb_width; mb_x++){
|
for(mb_x=0; mb_x<a->mb_width; mb_x++){
|
||||||
dct_get(a, mb_x, mb_y);
|
dct_get(a, pict, mb_x, mb_y);
|
||||||
encode_mb(a, a->block);
|
encode_mb(a, a->block);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -240,6 +237,12 @@ static av_cold int encode_init(AVCodecContext *avctx){
|
|||||||
int i;
|
int i;
|
||||||
const int scale= avctx->codec_id == AV_CODEC_ID_ASV1 ? 1 : 2;
|
const int scale= avctx->codec_id == AV_CODEC_ID_ASV1 ? 1 : 2;
|
||||||
|
|
||||||
|
avctx->coded_frame = av_frame_alloc();
|
||||||
|
if (!avctx->coded_frame)
|
||||||
|
return AVERROR(ENOMEM);
|
||||||
|
avctx->coded_frame->pict_type = AV_PICTURE_TYPE_I;
|
||||||
|
avctx->coded_frame->key_frame = 1;
|
||||||
|
|
||||||
ff_asv_common_init(avctx);
|
ff_asv_common_init(avctx);
|
||||||
|
|
||||||
if(avctx->global_quality == 0) avctx->global_quality= 4*FF_QUALITY_SCALE;
|
if(avctx->global_quality == 0) avctx->global_quality= 4*FF_QUALITY_SCALE;
|
||||||
|
Loading…
Reference in New Issue
Block a user