Лучшие avfoundation вопросы ИТ разработчиков

  • 23 голосов
  • 3 ответа
  • 0 просмотров
3 ответа

ios AVFoundation нажмите, чтобы сфокусироваться

Я пытаюсь создать приложение для камеры, которое более или менее будет работать как приложение камеры по умолчанию. То, что в данный момент не работает для м...

Задан 26 Oct 2012, 19:59 от spacecash21
  • 9 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Как я могу записать экран с приемлемой производительностью при сохранении отзывчивости пользовательского интерфейса?

Мне нужна помощь с проблемой производительности в приложении iOS на базе Objective-C. У меня есть приложение для iOS, которое захватывает содержимое экрана с помощью метода renderInContext от CALayer. Он пытается захватить достаточно ...

Задан 15 Jan 2013, 17:44 от Hunter
  • 8 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

AVAssetWriter Как записать сжатые / сжатые файлы m4a / mp3

Я пытаюсь взять локальный файл m4a или mp3 и сжать / сэмплировать этот файл (в целях создания меньшего файла).Первоначально я использовал AVAssetExportSessio...

Задан 24 Oct 2012, 18:14 от Dfowj
  • 8 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Не должен ли вызов avpicture_fill () произойти до вызова CVPixelBufferUnlockBaseAddress (), поскольку первый обращается к необработанным пиксельным данным в CVImageBufferRef?

аюсь кодировать кадры камеры iPhone в видео H.264, используя библиотеки libf * от ffmpeg. Я нашел в этомСтатья Apple [http://developer.apple.com/library/ios/#qa/qa2010/qa1702.html]как конвертировать CMSampleBuffer в UIImage, но как я могу ...

Задан 21 Dec 2010, 12:20 от Alexandre OS
  • 38 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Если вы просто хотите добавить один аудиофайл, следующий цикл должен заменить цикл for:

жен экспортировать фильм из моего приложения для iPhone, которое содержит UIImage из NSArray, и добавить некоторые аудиофайлы в формате .caf, которые должны запускаться в заранее установленное время. Теперь я смог использовать AVAssetWriter ...

Задан 12 Apr 2011, 19:42 от MuTaTeD
  • 6 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Как извлечь метаданные из аудио файлов на iOS

Я пытаюсь извлечь метаданные из файлов mp3 и m4a с помощью инфраструктуры AVFoundation. Это тестовый код: + (void)printMetadataForFileAtPath:(NSString *)path { NSURL *url = [NSURL fileURLWithPath:path]; AVAsset *asset = [AVURLAsset ...

Задан 18 Jul 2013, 12:23 от Pipo
  • 2 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

stackoverflow.com/questions/51419495/...

я вопрос, я использую функцию ниже, чтобы сочинять видео и аудио. Я хочу сохранить оригинальное звучание видео, но оно как-то исчезает, я понятия не имею. Я получил эту функцию отэтот ответ [https://stackoverflow.com/a/42732002/1404324] Я ...

Задан 25 Jul 2017, 21:20 от Faruk
  • 9 голосов
  • 4 ответа
  • 0 просмотров
4 ответа

Захват увеличенного предварительного просмотра в AVFoundation

Я работаю с функцией масштабирования в камере AVFoundation, я реализовал масштабирование путем масштабирования представления, имеющего AVCaptureVideoPreviewLayer. Теперь я хочу захватить увеличенное изображение. Вот мой код для добавления ...

Задан 16 Nov 2011, 10:29 от kadungon
  • 7 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Использование CIFilter с AVFoundation (iOS)

Я пытаюсь применить фильтры к видео композиции, созданной с помощью AVFoundation на iOS (фильтры могут быть, например, размытие, pixelate, сепия и т. Д.). Мне нужно применять эффекты в режиме реального времени и иметь возможность рендеринга ...

Задан 17 Dec 2013, 06:07 от Bjorn Roche
  • 2 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Проблемы с редактированием видео в iOS

В настоящее время я работаю над приложением для iOS, которое объединяет желаемое количество видео. Когда пользователь нажимает кнопку, чтобы объединить видео...

Задан 06 Nov 2012, 06:45 от Muhammad Jahanzaib
  • 27 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

CALayer - Поместить подслой под UIB-кнопки раскадровки?

У меня в раскадровке есть контроллер представления с несколькими кнопками UIB. Один из них активирует слой предварительного просмотра камеры AVFoundation, показанный в подслое: captureVideoPreviewLayer = [[AVCaptureVideoPreviewLayer ...

Задан 16 Apr 2013, 17:15 от golmschenk
  • 14 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Да вместо kCMTimeZero. Причина, по которой я полагаю, что ваш график будет отличаться между двумя вызовами. KCMTimeZero имеет шкалу времени 0, где, поскольку ваш следующий вызов имеет шкалу времени 600. Я не уверен, что это будет иметь значение, так как 0 / шкала времени в любом случае равна 0. В любом случае, я бы попробовал, так как AVFoundation может использовать временную шкалу напрямую (например, для установки свойств в заголовке файла MOV).

у некоторые кадры для видео сAVAssetWriterInputPixelBufferAdaptorи поведение w.r.t. время не то, что я ожидал. Если я напишу только один кадр: [videoWriter startSessionAtSourceTime:kCMTimeZero]; [adaptor appendPixelBuffer:pxBuffer ...

Задан 27 Apr 2011, 18:08 от David Moles
  • 8 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Библиотека OpenCV очень хороша.

у показать наложение поверх видео и экспортировать это видео, включая этот дисплей. Я взглянул на AVFoundation Framework, AVCompositions, AVAssets и т. Д., Но у меня до сих пор нет идеи для достижения этой цели. Существует класс, называемый ...

Задан 20 Jan 2011, 16:04 от Norbert
  • 14 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Это, вероятно, работает на некоторых видео, но не на тех, которые я тестировал. В любом случае, это мне очень поможет, так как кажется, что это правильный путь. Благодарю.

аюсь запечь CALayer в видео в портретном режиме (при экспорте), используя AVMutableComposition, AVMutableVideoComposition и AVVideoCompositionCoreAnimationTool на iOS 4.3. Это все работает в ландшафте. Однако, если я снимаю видео в портретной ...

Задан 08 Aug 2011, 20:44 от wombat57
  • 86 голосов
  • 9 ответов
  • 0 просмотров
9 ответов

Как воспроизвести звук с помощью Swift?

Я хотел бы воспроизвести звук с помощью Swift.Мой код работал в Swift 1.0, но теперь он больше не работает в Swift 2 или новее.

Задан 16 Aug 2015, 14:25 от Michel
  • 4 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Ответ @ ninjaproger был великолепен! Просто напишите это как Swift 4 версию ответа для дальнейшего использования.

у «передать» слой предварительного просмотра на мой сервер, однако я хочу, чтобы отправлялись только определенные кадры. По сути, я хочу сделать снимок AVCap...

Задан 21 Jun 2017, 17:34 от SahandEdrisian
  • 5 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

ты решил эту проблему? @DeepakSharma

ить- Я добавил награду в 50 репутаций за ответ на этот вопрос! У меня есть приложение, которое должно собрать несколько видео и фотографий, чтобы создать из них фильм. Я использую AVMutableComposition для этого. Чтобы иметь возможность ...

Задан 13 Jul 2011, 12:20 от Mihai Fratu
  • 30 голосов
  • 7 ответов
  • 0 просмотров
7 ответов

Как правильно выпустить AVCaptureSession

Я использую классы AV Foundation для захвата живого видеопотока с камеры и обработки образцов видео. Это хорошо работает. Однако у меня действительно есть пр...

Задан 18 Sep 2010, 09:40 от Codo
  • 6 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Получить PTS из исходного H264 mdat, сгенерированного iOS AVAssetWriter

Я пытаюсь одновременно прочитать и записать файл MOV H.264, написанный AVAssetWriter. Мне удалось извлечь отдельные блоки NAL, упаковать их в AV-пакеты ffmpe...

Задан 18 Jun 2012, 17:07 от kolyuchiy
  • 3 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

У меня не работает iOS 12.1.

аюсь получить текст песни для устройства iOS, и примеры, которые я нашел в Интернете, и stackoverflow показывают получение MPMediaItem песни (то есть использование [MPMediaQuery songsQuery] с MPMediaItemPropertyPersistentID в качестве предиката), ...

Задан 15 Jun 2011, 12:09 от Jer
  • 10 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Воспроизведение видео на андроиде, записанное с iPhone

Я пишу видео-приложение для iOS и Android (WinPhone находится в стадии ожидания). Я записал видео в формате mov с помощью фреймворка AVFoundation на iPhone и...

Задан 02 Oct 2012, 22:42 от ttotto
  • 27 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

CALayer - Поместить подслой под UIB-кнопки раскадровки?

В моей раскадровке есть контроллер вида с несколькими кнопками UIB. Один из них активирует слой предварительного просмотра камеры AVFoundation, показанный в ...

Задан 16 Apr 2013, 15:15 от golmschenk
  • 20 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

Что в действительности должен делатьOptimizeForNetworkUse?

ОтДокументация Apple это просто говорит:Если значение этого свойства равно YES, выходной файл будет записан таким образом, что воспроизведение может начаться...

Задан 19 Oct 2012, 16:11 от user1181046
  • 3 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

AVPlayer получил метаданные, но не играет

Я пытаюсь сделать очень простое приложение, целью является прослушивание аудиопотока (AAC 64 кбит / с). Для этого я используюAVPlayer изApple AVFoundation имеет следующее: ViewController.m #import "ViewController.h" @interface ViewController () ...

Задан 14 May 2013, 09:28 от Thomas Besnehard
  • 61 голос
  • 8 ответов
  • 0 просмотров
8 ответов

 или же

аюсь сыгратьMP3 файл, который передается вUIView от предыдущегоUIView (хранится вNSURL *fileURL переменная). Я инициализируюAVPlayer с участием: player = [AVPlayer playerWithURL:fileURL]; NSLog(@"Player created:%d",player.status);NSLog ...

Задан 23 Mar 2011, 06:04 от mvishnu
  • 6 голосов
  • 3 ответа
  • 0 просмотров
3 ответа

Сделал еще одну переустановку и все заработало. До сих пор не знаю, в чем проблема

аюсь воспроизвести аудиоклип (используя AVAudioPlayer) и видеоклип (используя MPMoviePlayerController), оба из которых работали. Затем я проверил файлы в SVN и вытащил их на другой Mac. Теперь, когда я запускаю приложение (приложение для iPad), ...

Задан 19 Jul 2011, 18:29 от kdbdallas
  • 7 голосов
  • 5 ответов
  • 0 просмотров
5 ответов

iOS AVFoundation: настройка ориентации видео

Мы боролись с несколькими аспектами проблемы управления ориентацией видео во время и после захвата на устройстве iOS. Благодаря предыдущим ответам и документ...

Задан 20 Nov 2012, 01:29 от Aaron Vegh
  • 0 голосов
  • 1 ответ
  • 0 просмотров
1 ответ

AVAssetTrack с альфа-каналом?

Я пытаюсь наложить AVAssetTracks на AVMutableComposition, где AVAssetTracks имеет альфа-канал в видео.Я успешно экспортировал видео AVAsset с пиксельными буф...

Задан 09 Dec 2014, 22:57 от tomgerhardt
  • 12 голосов
  • 3 ответа
  • 0 просмотров
3 ответа

AVFoundation Ориентация изображения отключена на 90 градусов в предварительном просмотре, но хорошо в рулоне камеры

Что-то действительно странное происходит, я пытаюсь сделать снимок с помощью AVFoundation, изображение с камеры выглядит просто отлично, но при предварительном просмотре изображение поворачивается на 90 градусов. Это код, который я использую для ...

Задан 11 Apr 2013, 19:02 от Jonathan
  • 5 голосов
  • 2 ответа
  • 0 просмотров
2 ответа

Вы должны создать и сохранить новый CVPixelBuffer непосредственно из исходных данных, а не использовать промежуточные NSData для хранения. Таким образом, вам нужно сделать только одну копию вместо двух.

ужно держать некоторые видеокадры из captureSession в памяти и записывать их в файл, когда «что-то» происходит. Похожий наэто решение [https://stackoverflow.com/q/6189409]я использую этот код, чтобы поместить кадр в NSMutableArray: - ...

Задан 03 Jun 2011, 12:32 от jsB
  • 1 голос
  • 4 ответа
  • 0 просмотров
4 ответа

Как преобразовать kCVPixelFormatType_420YpCbCr8BiPlanarFullRange Buffer в YUV420, используя библиотеку libyuv в ios?

Я захватил видео с помощью AVFoundation. Я установил (настройка видео) и получить в выходной буфер буфера kCVPixelFormatType_420YpCbCr8BiPlanarFullRange. Но мне нужен формат YUV420 для дальнейшей обработки. Для этого я использую libyuv ...

Задан 08 Feb 2013, 04:50 от user1831635
Page 1 of 7
1 2 3 4 5